Differences
This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
배규호:간섭_항이_있는_가우스_함수의_기대값 [2017/09/11 12:21] – bekuho | 물리:간섭_항이_있는_가우스_함수의_기대값 [2023/09/05 15:46] (current) – external edit 127.0.0.1 | ||
---|---|---|---|
Line 1: | Line 1: | ||
======간섭이 있는 가우스 함수====== | ======간섭이 있는 가우스 함수====== | ||
- | 긴츠버그-란다우 해밀토니안을 운동량 공간에서 전개하자. 운동량 벡터 q에 대해 | + | 긴츠버그-란다우 해밀토니안을 운동량 공간에서 전개하자. |
- | + | ||
- | 해밀토니안을 유도하면 | + | |
$$ \beta H_{0} = \frac{1}{L^{d}}\sum_{q}(\frac{t+Kq^2}{2})|\sigma(q)|^{2} $$ | $$ \beta H_{0} = \frac{1}{L^{d}}\sum_{q}(\frac{t+Kq^2}{2})|\sigma(q)|^{2} $$ | ||
Line 11: | Line 9: | ||
$$ Z_{0} = \int \prod_{q} d \sigma(q) e^{-C(q)|\sigma(q)|^{2}} $$ | $$ Z_{0} = \int \prod_{q} d \sigma(q) e^{-C(q)|\sigma(q)|^{2}} $$ | ||
- | 이제 원래의 해밀토니안에 작은 u에 대해 $u \int d^{d}x sigma(x)^{4}$ 라는 간섭항이 들어왔다고 하자. | + | 이제 원래의 해밀토니안에 작은 u에 대해 $u \int d^{d}x |
$$ U = u\int d^{d}x m(x)^4 = u\int d^{d}x L^{-2d}\sum_{q1, | $$ U = u\int d^{d}x m(x)^4 = u\int d^{d}x L^{-2d}\sum_{q1, | ||
Line 46: | Line 44: | ||
$< | $< | ||
+ | |||
+ | ======상관함수====== | ||
+ | 위와 같은 간섭 $U$가 있는 상황에서 두 질서변수 사이의 상관함수를 계산해보자. 1차항까지만 써보면 상관함수는 다음과 같은 형태를 가진다. | ||
+ | \begin{align*} | ||
+ | \langle m_\alpha(\mathbf q)m_\beta(\mathbf q' | ||
+ | &\quad - u\int\frac{d^d\mathbf k_1d^d\mathbf k_2d^d\mathbf k_3}{(2\pi)^{3d}}\left(\langle m_\alpha(\mathbf q)m_\beta(\mathbf q') m_i(\mathbf k_1)m_i(\mathbf k_2)m_j(\mathbf k_3)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\right.\\ | ||
+ | & | ||
+ | \end{align*} | ||
+ | $\langle\cdot\rangle_0$은 간섭이 없는 경우, 즉 가우시안 모형에서의 기댓값이다. 그리고 위 식에서 나타나는 여러점 상관함수는 윅의 정리(Wick' | ||
+ | \begin{align*} | ||
+ | \langle m_im_jm_km_l\rangle &= \langle m_im_j\rangle\langle m_km_l\rangle+\langle m_im_k\rangle\langle m_jm_l\rangle+\langle m_im_l\rangle\langle m_jm_k\rangle | ||
+ | \end{align*} | ||
+ | 이를 적용해보면 각 항마다 가능한 경우의 수는 | ||
+ | \begin{align*} | ||
+ | \langle m_\alpha(\mathbf q)m_\beta(\mathbf q') m_i(\mathbf k_1)m_i(\mathbf k_2)m_j(\mathbf k_3)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0&&: | ||
+ | \langle m_\alpha(\mathbf q)m_\beta(\mathbf q' | ||
+ | \end{align*} | ||
+ | 이고, 아래 세가지는 $-$부호에 의해 상쇄될 것이므로, | ||
+ | \begin{align*} | ||
+ | \langle m_\alpha(\mathbf q)m_i(\mathbf k_1)\rangle_0 | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_j(\mathbf k_3)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ | ||
+ | \langle m_\alpha(\mathbf q)m_i(\mathbf k_2)\rangle_0 | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_j(\mathbf k_3)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ | ||
+ | \langle m_\alpha(\mathbf q)m_j(\mathbf k_3)\rangle_0 | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_i(\mathbf k_1)m_i(\mathbf k_2)\rangle_0\\ | ||
+ | \langle m_\alpha(\mathbf q)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0 | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_i(\mathbf k_1)m_i(\mathbf k_2)\rangle_0\\ | ||
+ | \langle m_\alpha(\mathbf q)m_i(\mathbf k_1)\rangle_0 | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_i(\mathbf k_2)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ | ||
+ | \langle m_\alpha(\mathbf q)m_i(\mathbf k_1)\rangle_0 | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_i(\mathbf k_2)m_j(\mathbf k_3)\rangle_0\\ | ||
+ | \langle m_\alpha(\mathbf q)m_i(\mathbf k_2)\rangle_0 | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_i(\mathbf k_1)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ | ||
+ | \langle m_\alpha(\mathbf q)m_i(\mathbf k_2)\rangle_0 | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_i(\mathbf k_1)m_j(\mathbf k_3)\rangle_0\\ | ||
+ | \langle m_\alpha(\mathbf q)m_j(\mathbf k_3)\rangle_0 | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_i(\mathbf k_2)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ | ||
+ | \langle m_\alpha(\mathbf q)m_j(\mathbf k_3)\rangle_0 | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_i(\mathbf k_2)m_i(\mathbf k_1)\rangle_0\\ | ||
+ | \langle m_\alpha(\mathbf q)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0 | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_i(\mathbf k_2)m_j(\mathbf k_3)\rangle_0\\ | ||
+ | \langle m_\alpha(\mathbf q)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0 | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_i(\mathbf k_2)m_i(\mathbf k_1)\rangle_0 | ||
+ | \end{align*} | ||
+ | 다행히도, | ||
+ | 첫번째는 $m_\alpha$와 $m_\beta$가 같은 인덱스를 가진 항과 곱해지는 경우이다. 예를 들면, | ||
+ | \begin{align*} | ||
+ | & | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_j(\mathbf k_3)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ | ||
+ | =& | ||
+ | \end{align*} | ||
+ | 와 같은 경우가 네가지 있고, 적분을 통해 이런 클래스가 상관함수에 얼마나 기여하는지 다음과 같이 계산할 수 있다. | ||
+ | \begin{align*} | ||
+ | & | ||
+ | =& | ||
+ | =& | ||
+ | \end{align*} | ||
+ | |||
+ | 두번째로는 $m_\alpha$와 $m_\beta$가 서로 다른 인덱스를 가진 항과 곱해지는 경우이다. 예를 들면, | ||
+ | \begin{align*} | ||
+ | & | ||
+ | \langle m_\beta(\mathbf q' | ||
+ | \langle m_i(\mathbf k_2)m_j(-\mathbf k_1-\mathbf k_2-\mathbf k_3)\rangle_0\\ | ||
+ | =& | ||
+ | \end{align*} | ||
+ | 와 같은 경우가 있고, 마찬가지로 계산하면 | ||
+ | \begin{align*} | ||
+ | & | ||
+ | =& | ||
+ | =& | ||
+ | \end{align*} | ||
+ | 이들을 모두 더하면 두 점 사이의 상관함수는 | ||
+ | \begin{align*} | ||
+ | & | ||
+ | =& | ||
+ | \end{align*} | ||
+ | 가 된다. |