간섭이 있는 가우스 함수

긴츠버그-란다우 해밀토니안을 운동량 공간에서 전개하자. 위치 $x$ 에서의 스핀 벡터를 운동량 벡터 q의 공간으로 푸리에 변환을 한 후, $\int d^{d}x$ 를 취해주면 $-i\dot x(q - q^{\prime}) = \delta_{q,q^{\prime}}$ 이기 때문에 $ q = q^{\prime}$ 을 만족하지 않는 $q^{\prime}$에 대한 적분은 모두 0이 된다. 이 과정을 모두 수행한 후의 해밀토니안은 아래와 같다.

$$ \beta H_{0} = \frac{1}{L^{d}}\sum_{q}(\frac{t+Kq^2}{2})|\sigma(q)|^{2} $$

따라서 긴츠버그-란다우 해밀토니안에 대한 상태 함수는 가우스 형태가 된다.

$$ Z_{0} = \int \prod_{q} d \sigma(q) e^{-C(q)|\sigma(q)|^{2}} $$

이제 원래의 해밀토니안에 작은 u에 대해 $u \int d^{d}x \sigma(x)^{4}$ 라는 간섭항이 들어왔다고 하자.

$$ U = u\int d^{d}x m(x)^4 = u\int d^{d}x L^{-2d}\sum_{q1,q2,q3,q4}m(q_{1})m(q_{2})m(q_{3})m(q_{4})e^{-ix \cdot (q_{1} + q_{2} + q_{3} + q_{4})} $$

$$ u\int d^{d}x \int \frac{d^{d}q_{1} d^{d}q_{2} d^{d}q_{3} d^{d}q_{4}}{(2\pi)^{4d}}m(q_{1})m(q_{2})m(q_{3})m(q_{4})e^{-ix \cdot (q_{1} + q_{2} + q_{3} + q_{4})} $$

조건 $ q_1 + q_2 + q_3 +q_4 =0$을 공간적분을 위해 도입하면 $q_4 = -q_1 -q_2-q_3$이라고 쓸 수 있고 실제 적분은 $ q_1,q_2,q_3$에 대해 수행된다.

$$ u\int \frac{d^{d}q_{1} d^{d}q_{2} d^{d}q_{3}}{(2\pi)^{3d}}m(q_{1})m(q_{2})m(q_{3})m(-q_{1}-q_{2}-q_{3}) $$

여기에서 잠시 간섭항이 들어온 해밀토니안에 대한 상태함수를 살펴보자 u가 충분히 작다면 U로 $ e^{-\beta H_0 - U} $를 전개 할 수 있다.

$$ \int \prod_q d\sigma(q)e^{-\beta H_0} [ 1 - U +U^{2}/2 + ...] $$

$\prod_q \sigma(q)$를 $D\sigma(q)$라고 줄여서 쓰도록 하자. 위의 식은 자동적으로 U의 n차 모멘트를 계산해준다.

이제 어떤 관측의 기대값을 $ <O>$ 라고 하자. 그리고 원래의 가우스 함수에 대한 적분은 $<O>_0$라고 쓰자.

$$ <O> = \frac{\int D\sigma(q) O e^{-\beta H_0 - U}}{\int D\sigma(q)e^{-\beta H_0 - U}} = \frac{\int D\sigma(q)Oe^{-\beta H_0} [ 1 - U +U^{2}/2 + ...]}{\int D\sigma(q)e^{-\beta H_0} [ 1 - U +U^{2}/2 + ...]} $$

그리고 $ \int DX(x) M e^{-F[X]} = Z<M> $을 이용하면

$$ \frac{\int D\sigma(q)Oe^{-\beta H_0} [ 1 - U +U^{2}/2 + ...]}{\int D\sigma(q)e^{-\beta H_0} [ 1 - U +U^{2}/2 + ...]}= \frac{Z_{0}[<O>_{0} - <OU>_{0} + \frac{1}{2}<OU^{2}>_0 - \cdots ]}{Z_{0}[1 - <U>_0 + \frac{1}{2}<U^{2}> -\cdots]} $$

분모 부분을 전개하여 쓰자 $( 1-a+b-c+...)^{-1}$의 전개는 아래와 같다.

$$ ( 1-a+b-c+...)^{-1} = 1 + a + a^2 + a^3 +... -b +b^2 +.... c +c^2 +... -d +.... $$

따라서 분모 부분을 위 규칙에 따라 정리하고 $U$ 의 차수에 대해 정리하면

$$ <O> = [<O>_0 - <OU>_0 + \frac{1}{2}<OU^{2}>_0 - \cdots][1+<O>_{0}+ <U^2>_0 -\frac{1}{2} <U^2>_0 - \cdots] $$

$$ = <O>_{0} - (<OU>_{0} - <O>_{0} <U>_{0}) + \frac{1}{2} (<OU^{2}>_{0} - 2<OU>_{0} <U>_{0} + 2<O>_{0} {<U>_{0}}^{2} - <O>_{0} <U^{2}>_{0}) + \cdots \equiv \sum_{n=0}^{\infty} \frac{(-1)^{n}}{n!}<OU^{n}>^c_{0} $$

$<OU^{n}>_{0}^{c}$는 간섭 U가 있을때 바뀌게 되는 n차 큐뮬런트 계산을 줄여서 쓴 것이다.

상관함수

위와 같은 간섭 $U$가 있는 상황에서 두 질서변수 사이의 상관함수를 계산해보자. 1차항까지만 써보면 상관함수는 다음과 같은 형태를 가진다. \begin{align*} \langle m_\alpha(\mathbf q)m_\beta(\mathbf q')\rangle &= \langle m_\alpha(\mathbf q)m_\beta(\mathbf q')\rangle_0 \\ &\quad - u\int\frac{d^d\mathbf k_1d^d\mathbf k_2d^d\mathbf k_3}{(2\pi)^{3d}}\left(\langle m_\alpha(\mathbf q)m_\beta(\mathbf q') m_i(\mathbf k_1)m_i(\mathbf k_2)m_j(\mathbf k_3)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\right.\\ &\qquad\qquad\qquad -\left.\langle m_\alpha(\mathbf q)m_\beta(\mathbf q')\rangle_0\langle m_i(\mathbf k_1)m_i(\mathbf k_2)m_j(\mathbf k_3)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\right)+O(u^2) \end{align*} $\langle\cdot\rangle_0$은 간섭이 없는 경우, 즉 가우시안 모형에서의 기댓값이다. 그리고 위 식에서 나타나는 여러점 상관함수는 윅의 정리(Wick's theorem)를 이용해 다음과 같이 두 점 상관함수로 변환해 쓸 수 있다. \begin{align*} \langle m_im_jm_km_l\rangle &= \langle m_im_j\rangle\langle m_km_l\rangle+\langle m_im_k\rangle\langle m_jm_l\rangle+\langle m_im_l\rangle\langle m_jm_k\rangle \end{align*} 이를 적용해보면 각 항마다 가능한 경우의 수는 \begin{align*} \langle m_\alpha(\mathbf q)m_\beta(\mathbf q') m_i(\mathbf k_1)m_i(\mathbf k_2)m_j(\mathbf k_3)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0&&:\text{15가지}\\ \langle m_\alpha(\mathbf q)m_\beta(\mathbf q')\rangle_0\langle m_i(\mathbf k_1)m_i(\mathbf k_2)m_j(\mathbf k_3)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0&&:\text{3가지} \end{align*} 이고, 아래 세가지는 $-$부호에 의해 상쇄될 것이므로, 결국 실제로 두 점 상관함수에 기여하는 항은 다음 $12$가지가 된다. \begin{align*} \langle m_\alpha(\mathbf q)m_i(\mathbf k_1)\rangle_0 \langle m_\beta(\mathbf q')m_i(\mathbf k_2)\rangle_0 \langle m_j(\mathbf k_3)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ \langle m_\alpha(\mathbf q)m_i(\mathbf k_2)\rangle_0 \langle m_\beta(\mathbf q')m_i(\mathbf k_1)\rangle_0 \langle m_j(\mathbf k_3)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ \langle m_\alpha(\mathbf q)m_j(\mathbf k_3)\rangle_0 \langle m_\beta(\mathbf q')m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0 \langle m_i(\mathbf k_1)m_i(\mathbf k_2)\rangle_0\\ \langle m_\alpha(\mathbf q)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0 \langle m_\beta(\mathbf q')m_j(\mathbf k_3)\rangle_0 \langle m_i(\mathbf k_1)m_i(\mathbf k_2)\rangle_0\\ \langle m_\alpha(\mathbf q)m_i(\mathbf k_1)\rangle_0 \langle m_\beta(\mathbf q')m_j(\mathbf k_3)\rangle_0 \langle m_i(\mathbf k_2)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ \langle m_\alpha(\mathbf q)m_i(\mathbf k_1)\rangle_0 \langle m_\beta(\mathbf q')m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0 \langle m_i(\mathbf k_2)m_j(\mathbf k_3)\rangle_0\\ \langle m_\alpha(\mathbf q)m_i(\mathbf k_2)\rangle_0 \langle m_\beta(\mathbf q')m_j(\mathbf k_3)\rangle_0 \langle m_i(\mathbf k_1)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ \langle m_\alpha(\mathbf q)m_i(\mathbf k_2)\rangle_0 \langle m_\beta(\mathbf q')m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0 \langle m_i(\mathbf k_1)m_j(\mathbf k_3)\rangle_0\\ \langle m_\alpha(\mathbf q)m_j(\mathbf k_3)\rangle_0 \langle m_\beta(\mathbf q')m_i(\mathbf k_1)\rangle_0 \langle m_i(\mathbf k_2)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ \langle m_\alpha(\mathbf q)m_j(\mathbf k_3)\rangle_0 \langle m_\beta(\mathbf q')m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0 \langle m_i(\mathbf k_2)m_i(\mathbf k_1)\rangle_0\\ \langle m_\alpha(\mathbf q)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0 \langle m_\beta(\mathbf q')m_i(\mathbf k_1)\rangle_0 \langle m_i(\mathbf k_2)m_j(\mathbf k_3)\rangle_0\\ \langle m_\alpha(\mathbf q)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0 \langle m_\beta(\mathbf q')m_j(\mathbf k_3)\rangle_0 \langle m_i(\mathbf k_2)m_i(\mathbf k_1)\rangle_0 \end{align*} 다행히도, 이 $12$가지 항이 두가지 클래스로 나뉘어진다. 첫번째는 $m_\alpha$와 $m_\beta$가 같은 인덱스를 가진 항과 곱해지는 경우이다. 예를 들면, \begin{align*} &\langle m_\alpha(\mathbf q)m_i(\mathbf k_1)\rangle_0 \langle m_\beta(\mathbf q')m_i(\mathbf k_2)\rangle_0 \langle m_j(\mathbf k_3)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ =&\frac{\delta_{\alpha i}(2\pi)^d\delta(\mathbf q-\mathbf k_1)}{t+Kq^2}\cdot\frac{\delta_{\beta i}(2\pi)^d\delta(\mathbf q'-\mathbf k_2)}{t+Kq'^2}\cdot\frac{\delta_{jj}(2\pi)^d\delta(-\mathbf k_1-\mathbf k_2)}{t+Kk_3^2} \end{align*} 와 같은 경우가 네가지 있고, 적분을 통해 이런 클래스가 상관함수에 얼마나 기여하는지 다음과 같이 계산할 수 있다. \begin{align*} &-4u\sum_{ij}\delta_{\alpha i}\delta_{\beta i}\delta_{jj}\int\frac{d^d\mathbf k_1d^d\mathbf k_2d^d\mathbf k_3}{(2\pi)^{3d}}(2\pi)^{3d}\frac{\delta(\mathbf q - \mathbf k_1)\delta(\mathbf q' - \mathbf k_2)\delta(-\mathbf k_1-\mathbf k_2)}{(t+Kq^2)(t+Kq'^2)(t+Kk_2^2)}\\ =&-4un\delta_{\alpha\beta}\int d^d\mathbf k_1d^d\mathbf k_3\frac{\delta(\mathbf q - \mathbf k_1)\delta(\mathbf q' + \mathbf k_1)}{(t+Kq^2)(t+Kq'^2)(t+Kk_3^2)}\\ =&-\frac{4un(2\pi)^d\delta_{\alpha\beta}\delta(\mathbf q+\mathbf q')}{(t+Kq^2)^2}\int \frac{d^d\mathbf k}{(2\pi)^d}\frac{1}{t+Kk^2} \end{align*}

두번째로는 $m_\alpha$와 $m_\beta$가 서로 다른 인덱스를 가진 항과 곱해지는 경우이다. 예를 들면, \begin{align*} &\langle m_\alpha(\mathbf q)m_i(\mathbf k_1)\rangle_0 \langle m_\beta(\mathbf q')m_j(\mathbf k_3)\rangle_0 \langle m_i(\mathbf k_2)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ =&\frac{\delta_{\alpha i}(2\pi)^d\delta(\mathbf q-\mathbf k_1)}{t + Kq^2}\cdot\frac{\delta_{\beta j}(2\pi)^2\delta(\mathbf q'-\mathbf k_3)}{t+Kq'^2}\cdot\frac{\delta_{ij}(2\pi)^2\delta(-\mathbf k_1-\mathbf k_3)}{t+Kk_2^2} \end{align*} 와 같은 경우가 있고, 마찬가지로 계산하면 \begin{align*} &-8u\sum_{ij}\delta_{\alpha i}\delta_{\beta j}\delta_{ij}\int d^d\mathbf k_1d^d\mathbf k_2d^d\mathbf k_3\frac{\delta(\mathbf q-\mathbf k_1)\delta(\mathbf q'-\mathbf k_3)\delta(-\mathbf k_1-\mathbf k_3)}{(t+Kq^2)(t+Kq'^2)(t+Kk_2^2)}\\ =&-8u\delta_{\alpha\beta}\int d^d\mathbf k_1d^d\mathbf k_2\frac{\delta(\mathbf q-\mathbf k_1)\delta(\mathbf q'+\mathbf k_1)}{(t+Kq^2)(t+Kq'^2)(t+Kk_2^2)}\\ =&-\frac{8u(2\pi)^d\delta_{\alpha\beta}\delta(\mathbf q+\mathbf q')}{(t+Kq^2)^2}\int\frac{d^d\mathbf k}{(2\pi)^2}\frac{1}{t+Kk^2} \end{align*} 이들을 모두 더하면 두 점 사이의 상관함수는 \begin{align*} &\langle m_\alpha(\mathbf q)m_\beta(\mathbf q')\rangle\\ =&\frac{\delta_{\alpha\beta}(2\pi)^d\delta(\mathbf q+\mathbf q')}{t+Kq^2}\left[1-\frac{4u(n+2)}{t+Kq^2}\int\frac{d^d\mathbf k}{(2\pi)^2}\frac{1}{t+Kk^2}+O(u^2)\right] \end{align*} 가 된다.