Differences
This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
물리:tap_방정식 [2023/06/18 10:12] – minwoo | 물리:tap_방정식 [2023/09/07 07:01] (current) – minwoo | ||
---|---|---|---|
Line 1: | Line 1: | ||
====== 공동 방법(cavity method) ====== | ====== 공동 방법(cavity method) ====== | ||
- | TAP(Thouless-Anderson-Palmercavity)방정식은 ' | + | TAP(Thouless-Anderson-Palmer)방정식은 ' |
$$ \\ $$ | $$ \\ $$ | ||
Line 9: | Line 9: | ||
$$ \\ $$ | $$ \\ $$ | ||
- | ==== 국소장 $\tilde{h}_i$ ==== | + | ==== 국소장 $\tilde{h}_0$ ==== |
- | 관측 가능량 중 하나로서 ' | + | 관측 가능량 중 하나로서 ' |
+ | $$ \\ $$ | ||
+ | 이때, 원래 $N$개의 스핀으로 이루어진 게에 $S_0$를 추가하는 상황을 생각해보자. | ||
- | 이번 글에서의 최종 목표는, 이러한 | + | ($S_0$는 위치 $0$에 추가된 스핀을 |
+ | |||
+ | 그에 따라 $N+1$개의 스핀으로 이루어진 계로 변화하였다. 그의 | ||
$$ \\ $$ | $$ \\ $$ | ||
+ | 이번 글에서의 최종 목표는, 이러한 국소적 자화량이 TAP 방정식을 만족함을 보이는 것이다. | ||
+ | |||
이어지는 논의에서는 편의상 외부 자기장은 없다고 하여 그에 따라 $h_i=0$이라고 하자. | 이어지는 논의에서는 편의상 외부 자기장은 없다고 하여 그에 따라 $h_i=0$이라고 하자. | ||
$$ \\ $$ | $$ \\ $$ | ||
- | 국소적 자화량에 대한 평균인 $\langle | + | 국소적 자화량에 대한 평균인 $\langle |
- | 이를 구하기 위해서 아래의 국소장(local field)을 먼저 고려하자. | + | 이를 구하기 위해서는 아래의 국소장(local field)을 먼저 고려해야 한다. |
- | $$ \tilde{h}_i = \sum_{j} J_{ij}S_j $$ | + | $$ \tilde{h}_0 = \sum_{j} J_{0j}S_j $$ |
- | 즉, 이는 | + | 왜냐하면 |
- | 그렇다면 | + | 따라서 |
- | $$ P(S_i, | + | $$ \\ $$ |
+ | $S_0$에 의해 스핀 $N$개에서 $N+1$개로 변한다면, | ||
- | $P(\tilde{h}_i \ S_i)$는 ' | + | $$ S_0 = 1 , \quad E^{(N+1)}=E^{(N)}-\beta |
+ | S_0 = -1 , \quad E^{(N+1)}=E^{(N)}+\beta | ||
+ | $$ | ||
$$ \\ $$ | $$ \\ $$ | ||
- | 보다 직관적인 이해를 위해 그림으로 나타내자면, 위의 식을 | + | 즉, 우리가 구하고자 하는 $P(S_0,\tilde{h}_0)$는 |
- | 아래 그림의 상황은 원래의 스핀 | + | $$ P(S_0, |
- | {{: | + | 여기에서 $P(\tilde{h}_0\S_0)$는 $S_0$가 식에 포함되지 않은 확률 분포를 말한다. |
- | 왼쪽의 경우가 원래 스핀 | + | 더 자세하게 표현하자면, |
- | + | ||
- | $$ \\ $$ | + | |
- | 우리가 구하고자 하는 | + | |
- | $$ P_i(S_i) \propto \int d \tilde{h}_i \ e^{\beta \tilde{h}_i S_i} P(\tilde{h}_i \S_i)$$ | ||
- | 따라서 | + | 이제 |
$$ \\ $$ | $$ \\ $$ | ||
- | ==== $P(\tilde{h}_i \S_i)$ ==== | + | ==== $P(\tilde{h}_0 \S_0)$ ==== |
만약 격자 구조가 아래와 같은 베테 격자(Bethe lattice) 구조라면, | 만약 격자 구조가 아래와 같은 베테 격자(Bethe lattice) 구조라면, | ||
- | {{:물리:tap_bethe.png?300|}} | + | {{:물리:tap_bethe_edited.png?300|}} |
- | 우리가 위의 그림에서 이해한 방식에 의하면 | + | $P(\tilde{h}_0 \ S_0)$에 대해 ' |
- | 왜냐하면 | + | 왜냐하면 |
- | $$ \\ $$ | + | (위의 베테 격자 그림에서 |
- | 여기에서, 서로 다른 위치에 대한 상관관계(correlation)가 약한 ' | + | 그 상황에서 |
+ | |||
+ | |||
+ | $$ \\ $$ | ||
+ | 이때, 서로 다른 위치에 대한 상관관계(correlation)가 약한 ' | ||
- | 즉, 독립적이고 동일하게 분포된(independent and identically distributed) $J_{ij}S_j$에 대해서 | + | 즉, 독립적이고 동일하게 분포된(independent and identically distributed) $J_{0j}S_j$에 대해서 |
- | $S_i$가 제거된 경우의 ' | + | $S_0$가 식에 포함되지 않는 |
$$ \\ $$ | $$ \\ $$ | ||
즉, 다음과 같은 형태로 표현 가능하다. | 즉, 다음과 같은 형태로 표현 가능하다. | ||
- | $$ P(\tilde{h}_i \ S_i)=\frac{1}{\sqrt{2\pi | + | $$ P(\tilde{h}_0 \ S_0)=\frac{1}{\sqrt{2\pi |
- | 위의 식에서 $V_i$는 국소장의 분산(variance)이다. | + | 위의 식에서 $V_0$는 국소장의 분산(variance)이다. |
- | 분산 $V_i$를 식으로 표현하면 아래와 같다. | + | 분산 $V_0$를 식으로 표현하면 아래와 같다. |
$$ | $$ | ||
\begin{align} | \begin{align} | ||
- | V_i &= \langle (\tilde{h}_i)^2\rangle - \langle | + | V_0 &= \langle (\tilde{h}_0)^2\rangle - \langle |
- | \tilde{h}_i \rangle ^2 | + | \tilde{h}_0 \rangle ^2 |
\\ | \\ | ||
- | & | + | & |
\end{align}$$ | \end{align}$$ | ||
$$ \\ $$ | $$ \\ $$ | ||
- | 이때, ' | + | 이때, ' |
$$ P(J_{ij}) = \frac{1}{J}\sqrt{\frac{N}{2\pi}} \exp\left\{ - \frac{N}{2J^2}\left( J_{ij} - \frac{J_0}{N} \right)^2 \right\} $$ | $$ P(J_{ij}) = \frac{1}{J}\sqrt{\frac{N}{2\pi}} \exp\left\{ - \frac{N}{2J^2}\left( J_{ij} - \frac{J_0}{N} \right)^2 \right\} $$ | ||
- | 위의 식으로부터 $J_{ij}$의 기댓값은 $\frac{J_0}{N}$이며 분산은 $\frac{J^2}{N}$임을 알 수 있다. | + | 위의 식으로부터 $J_{0j}$의 기댓값은 $\frac{J_0}{N}$이며 분산은 $\frac{J^2}{N}$임을 알 수 있다. |
- | 따라서 $N \to \infty$인 경우에는 $V_i=\sum_{j, | + | 또한 $V_0$를 계산할 때, $N(N-1)$개의 서로 상관관계가 없고 (uncorrelated) 무작위적으로 부호를 갖는 (randomly signed) $j\ne k$의 항들의 합은 열역학적 극한인 $N \to \infty$에서 $0$이 된다. |
+ | |||
+ | 따라서 $N \to \infty$인 경우에는 $V_0=\sum_{j, | ||
그 결과는 다음과 같이 표현 된다. | 그 결과는 다음과 같이 표현 된다. | ||
- | $$ V_i \approx \sum_j J_{ij}^2(1-\langle S_j \rangle^2 _{\i} \approx \sum_j J_{ij}^2(1-\langle S_j \rangle^2 = \sum_j J_{ij}^2 (1-m_j ^2) $$ | + | $$ V_0 \approx \sum_j J_{0j}^2(1-\langle S_j \rangle^2 _{\0} \approx \sum_j J_{0j}^2(1-\langle S_j \rangle^2 = \sum_j J_{0j}^2 (1-m_j ^2) $$ |
- | 이와 같이 국소장의 분산 $V_i$을 얻었으므로 $ P_i(S_i) \propto \int d \tilde{h}_i \ e^{\beta \tilde{h}_i S_i} P(\tilde{h}_i \S_i)$의 관계를 이용하여 $m_i$를 구하면 된다. | + | 이와 같이 국소장의 분산 $V_0$을 얻었으므로 $ P(S_0) \propto \int d \tilde{h}_0 \ e^{\beta \tilde{h}_0 S_0} P(\tilde{h}_0 \S_0)$의 관계를 이용하여 $m_0$를 구하면 된다. |
$$ \\ $$ | $$ \\ $$ | ||
- | ==== $m_i$ ==== | + | ==== $m_0$ ==== |
- | + | ||
- | $S_i$는 $1$ 또는 $-1$의 이산적인 값을 가지므로, | + | |
- | + | ||
- | 분배함수를 포함한 대각합(trace, | + | |
- | + | ||
- | $$m_i= \sum_{S_i=\pm1} \frac{P(S_i)}{P(S_i=1)+P(S_i=-1)}S_i$$ | + | |
- | 이때, | + | 위에서 설명한 식에 따라서 $P(S_0)$는 다음과 같이 표현된다. |
$$ | $$ | ||
\begin{align} | \begin{align} | ||
- | P(S_i) & \propto \int d \tilde{h}_i \ \exp[{\beta \tilde{h}_i S_i}] P(\tilde{h}_i \S_i) \\ | + | P(S_0) & \propto \int d \tilde{h}_0 \ \exp[{\beta \tilde{h}_0 S_0}] P(\tilde{h}_0 \S_0) \\ |
- | & = \int d\tilde{h}_i \frac{1}{\sqrt{2\pi | + | & = \int d\tilde{h}_0 \frac{1}{\sqrt{2\pi |
- | & = \frac{1}{\sqrt{2\pi | + | & = \frac{1}{\sqrt{2\pi |
- | &= \frac{1}{\sqrt{2\pi | + | &= \frac{1}{\sqrt{2\pi |
- | & | + | & |
- | &\qquad \qquad +(\tilde{h}_i\langle \tilde{h_i} \rangle_{\i}+V_i\beta S_i) ^2-(\tilde{h}_i\langle \tilde{h_i} \rangle_{\i}+V_i\beta S_i) ^2 +\langle \tilde{h_i} \rangle_{\i}^2 \Bigr) \Biggr]\\ | + | &\qquad \qquad +(\tilde{h}_0\langle \tilde{h_0}\rangle_{\0}+V_0\beta S_0) ^2-(\tilde{h}_0\langle \tilde{h_0}\rangle_{\0}+V_0\beta S_0) ^2 +\langle \tilde{h_0}\rangle_{\0}^2 \Bigr) \Biggr]\\ |
- | & | + | & |
- | &\qquad \qquad \qquad × \exp\Biggl[-\frac{1}{2V_i}\Bigl(-( \langle \tilde{h_i} \rangle_{\i}+V_i\beta S_i) ^2 +\langle \tilde{h_i} \rangle_{\i}^2 \Bigr)\Biggr]\\ | + | &\qquad \qquad \qquad × \exp\Biggl[-\frac{1}{2V_0}\Bigl(-( \langle \tilde{h_0}\rangle_{\0}+V_0\beta S_0) ^2 +\langle \tilde{h_0}\rangle_{\0}^2 \Bigr)\Biggr]\\ |
- | & | + | & |
- | & | + | & |
- | & | + | & |
- | & | + | & |
\end{align}$$ | \end{align}$$ | ||
- | 이제 $P(S_i)$가 $\exp\Bigl[ | + | 이제 $P(S_0)$가 $\exp\Bigl[ |
$$ | $$ | ||
\begin{align} | \begin{align} | ||
- | m_i &= \sum_{S_i=\pm 1} \frac{1}{[\exp[\beta \langle \tilde{h_i} \rangle_{\i} \ + \exp[-\beta \langle \tilde{h_i} \rangle_{\i}]]} S_i\exp\bigl[ \beta \langle \tilde{h_i} \rangle_{\i} S_i\bigr] \\ | + | m_0 &= \sum_{S_0=\pm 1} \frac{1}{[\exp[\beta \langle \tilde{h_0}\rangle_{\0} \ + \exp[-\beta \langle \tilde{h_0}\rangle_{\0}]]} S_0\exp\bigl[ \beta \langle \tilde{h_0}\rangle_{\0} S_0\bigr] \\ |
- | & | + | & |
\end{align} | \end{align} | ||
$$ | $$ | ||
- | 여기서 $\langle \tilde{h_i} \rangle_{\i}$의 식을 얻으면 $m_i$를 온전히 표현할 수 있다. | + | 여기에서 $\langle \tilde{h_0}\rangle_{\0}$라고 함은 스핀 $N$개에 대한 $\tilde{h}_0$의 평균값이다. |
+ | |||
+ | 그러므로 $\langle \tilde{h_0}\rangle_{\0}$의 식을, 스핀 $N+1$개에 대한 $\langle \tilde{h_0}\rangle$에 대해서 | ||
$$ \\ $$ | $$ \\ $$ | ||
- | 이때, | + | $\langle \tilde{h_0}\rangle_{\0}$이 아닌 $\langle \tilde{h_0}\rangle$ 로서 '$S_0$를 제외 시키지 않은' |
- | $$ \langle \tilde{h}_i \rangle = | + | $$ \langle \tilde{h}_0 \rangle = |
- | \text{Tr}_{S_i} \int d\tilde{h}_i \tilde{h}_i P(S_i,\tilde{h}_i) $$ | + | \text{Tr}_{S_0} \int d\tilde{h}_0 \tilde{h}_0 P(S_0,\tilde{h}_0) $$ |
- | 여기에서 (앞서 살펴본) $P(S_i,\tilde{h}_i) \propto e^{\beta\tilde{h}_i S_i}P(\tilde{h}_i \ S_i)$를 이용하면 | + | 여기에서 (앞서 살펴본) $P(S_0,\tilde{h}_0) \propto e^{\beta\tilde{h}_0 S_0}P(\tilde{h}_0 \ S_0)$를 이용하면 |
- | 다음과 같은 과정에 의해서 $\langle \tilde{h_i} \rangle$와 $\langle \tilde{h_i} \rangle_{\i}$에 대한 관계식을 얻는다. | + | 다음과 같은 과정에 의해서 $\langle \tilde{h_0}\rangle$와 $\langle \tilde{h_0}\rangle_{\0}$에 대한 관계식을 얻는다. |
$$ | $$ | ||
\begin{align} | \begin{align} | ||
- | \langle \tilde{h}_i \rangle & | + | \langle \tilde{h}_0 \rangle & |
- | & | + | & |
- | &\qquad \qquad \qquad × \exp\Biggl[-\frac{1}{2V_i}\Bigl(-( \langle \tilde{h_i} \rangle_{\i}+V_i\beta S_i) ^2 +\langle \tilde{h_i} \rangle_{\i}^2 \Bigr)\Biggr]\\ | + | &\qquad \qquad \qquad × \exp\Biggl[-\frac{1}{2V_0}\Bigl(-( \langle \tilde{h_0}\rangle_{\0}+V_0\beta S_0) ^2 +\langle \tilde{h_0}\rangle_{\0}^2 \Bigr)\Biggr]\\ |
- | & | + | & |
- | & | + | & |
- | & | + | & |
- | & | + | & |
- | &= \exp\left[\frac{1}{2V_i}(V_i\beta)^2 \right]\text{Tr}_{S_i} \exp\Bigl[ | + | &= \exp\left[\frac{1}{2V_0}(V_0\beta)^2 \right]\text{Tr}_{S_0} \exp\Bigl[ |
- | & | + | & |
\end{align} | \end{align} | ||
Line 186: | Line 193: | ||
$$ | $$ | ||
\begin{align} | \begin{align} | ||
- | \therefore | + | \therefore |
- | &= \langle \tilde{h_i} \rangle_{\i}+V_i\beta m_i | + | &= \langle \tilde{h_0} \rangle_{\0}+V_0\beta m_0 |
\end{align}$$ | \end{align}$$ | ||
위의 유도 과정에서는 앞서서 계산한 적분 결과를 곧바로 사용하였고, | 위의 유도 과정에서는 앞서서 계산한 적분 결과를 곧바로 사용하였고, | ||
- | $P(S_i) \propto \exp\left[\frac{1}{2V_i}(V_i\beta)^2 \right]\exp\Bigl[ | + | $P(S_0) \propto \exp\left[\frac{1}{2V_0}(V_0\beta)^2 \right]\exp\Bigl[ |
$$ \\ $$ | $$ \\ $$ | ||
- | 이때 '$S_i$를 제외 시키지 않은' | + | 이때 '$S_0$를 제외 시키지 않은' |
- | 앞서 얻었던 식인 $m_i = \tanh[\beta \langle \tilde{h_i} \rangle_{\i}]$은, 결론적으로 아래와 같다. | + | 앞서 얻었던 식인 $m_0 = \tanh[\beta \langle \tilde{h_0}\rangle_{\0}]$은, 결론적으로 아래와 같다. |
\begin{align} | \begin{align} | ||
- | m_i & | + | m_0 & |
- | & | + | & |
\end{align} | \end{align} | ||
- | + | 위의 유도 결과는 TAP 방정식이라고 불린다. $S_0$가 포함 되었으므로, | |
- | 위의 유도 결과는 TAP 방정식이라고 불린다. | + | |
$$ \\ $$ | $$ \\ $$ | ||
Line 221: | Line 227: | ||
그러나, 저온의 영역에서는 | 그러나, 저온의 영역에서는 | ||
- | TAP 방정식이 정확히 옳은 결과를 주지는 못한다. | + | TAP 방정식이 정확히 옳은 결과를 주지 못한다. |
$$ \\ $$ | $$ \\ $$ | ||
Line 228: | Line 234: | ||
TAP 방정식인 다음의 식을 다시 살펴보면 | TAP 방정식인 다음의 식을 다시 살펴보면 | ||
- | $$ m_i = \tanh\left[\beta \left( \sum_j J_{ij} m_j -\beta \sum_j J_{ij}^2 (1-m_j ^2)m_i \right)\right]$$ | + | $$ m_0 = \tanh\left[\beta \left( \sum_j J_{0j} m_j -\beta \sum_j J_{0j}^2 (1-m_j ^2)m_0 \right)\right]$$ |
- | $-\beta \sum_j J_{ij}^2 (1-m_j ^2)m_i $의 항은 마치 ' | + | $-\beta \sum_j J_{0j}^2 (1-m_j ^2)m_0 $의 항은 마치 ' |
사실, 이 항은 ' | 사실, 이 항은 ' | ||
$$ \\ $$ | $$ \\ $$ | ||
- | 자화량 $m_i$는 $j$의 위치에, ' | + | 자화량 $m_0$는 $j$의 위치에, ' |
- | 그에 따라, 위치 $j$의 자화량 $m_j$는 $\chi_{jj}J_{ij}m_i$만큼 변하게 된다. $\chi_{jj}$는 다음과 같다. | + | 그에 따라, 위치 $j$의 자화량 $m_j$는 $\chi_{jj}J_{0j}m_0$만큼 변하게 된다. $\chi_{jj}$는 다음과 같다. |
$$ \chi_{jj} = \frac{\partial m_j}{\partial h_j} \Biggl|_{h_j \to 0}=\beta(1-m_j^2)$$ | $$ \chi_{jj} = \frac{\partial m_j}{\partial h_j} \Biggl|_{h_j \to 0}=\beta(1-m_j^2)$$ | ||
- | ($\chi$가 자기 감수율(magnetic susceptibility)이며, | + | ($\chi$가 자기 감수율(magnetic susceptibility)이며, |
$$ \\ $$ | $$ \\ $$ | ||
- | 이때, 이렇게 변화한 $m_j$의 값에 의해서 $m_i$가 다시 영향을 받게 되는 값은 다음과 같다. | + | 이때, 이렇게 변화한 $m_j$의 값에 의해서 $m_0$가 다시 영향을 받게 되는 값은 다음과 같다. |
- | $$ J_{ij} \chi_{jj}J_{ij}m_i = \beta J_{ij}^2(1-m_j)^2 m_i$$ | + | $$ J_{0j} (\chi_{jj}J_{0j}m_0) = \beta J_{0j}^2(1-m_j^2 |
- | 그런데 이것을 발생시킨 $m_j$의 변화는 $m_i$에 의한 것이므로, | + | 그런데 이것을 발생시킨 $m_j$의 변화는 $m_0$에 의한 것이므로, |
$$ \\ $$ | $$ \\ $$ | ||
- | TAP 방정식에서 $-\beta \sum_j J_{ij}^2 (1-m_j ^2)m_i $의 항이 해당 역할을 적절하게 수행하므로, | + | TAP 방정식에서 $-\beta \sum_j J_{0j}^2 (1-m_j ^2)m_0 $의 항이 해당 역할을 적절하게 수행하므로, |
' | ' | ||
Line 258: | Line 264: | ||
우리가 [[물리: | 우리가 [[물리: | ||
- | 우선, 상호작용인 $J_{ij}$를 강자성(ferromagnetic)에 대한 항과 난수(random)로 표현되는 항으로 분리하여 아래와 같이 나타내자. | + | 우선, 상호작용인 $J_{0j}$를 강자성(ferromagnetic)에 대한 항과 난수(random)로 표현되는 항으로 분리하여 아래와 같이 나타내자. |
- | $$ J_{ij} = \frac{J_0}{N} + \frac{J}{\sqrt{N}}z_{ij} $$ | + | $$ J_{0j} = \frac{J_0}{N} + \frac{J}{\sqrt{N}}z_{0j} $$ |
- | 여기에서 $z_{ij}$는 가우스 랜덤 변수(Gaussian random variable)로서 평균이 $0$이며 분산을 $1$로 갖는 변수이다. | + | 여기에서 $z_{0j}$는 가우스 랜덤 변수(Gaussian random variable)로서 평균이 $0$이며 분산을 $1$로 갖는 변수이다. |
- | 앞서 얻었던 $ \langle \tilde{h_i} \rangle = \langle \tilde{h_i} \rangle_{\i}+V_i\beta m_i$의 식에 이를 대입하면 다음과 같다. | + | 앞서 얻었던 $ \langle \tilde{h_0} \rangle = \langle \tilde{h_0} \rangle_{\0}+V_0\beta m_0$의 식에 이를 대입하면 다음과 같다. |
- | $$\langle \tilde{h_i} \rangle_{\i} = \frac{J_0}{N}\sum_j m_j + \frac{J}{\sqrt{N}}\sum_j z_{ij}m_j - V_i \beta m_i $$ | + | $$\langle \tilde{h_0} \rangle_{\0} = \frac{J_0}{N}\sum_j m_j + \frac{J}{\sqrt{N}}\sum_j z_{0j}m_j - V_0 \beta m_0 $$ |
첫번째 항인 $\frac{J_0}{N}\sum_j m_j$는 $J_0 m$과 같으며, $m$은 강자성 질서 맺음 변수(order parameter)이다. | 첫번째 항인 $\frac{J_0}{N}\sum_j m_j$는 $J_0 m$과 같으며, $m$은 강자성 질서 맺음 변수(order parameter)이다. | ||
Line 273: | Line 279: | ||
세번째 항의 역할은 Onsager의 reaction field에서 살펴본 ' | 세번째 항의 역할은 Onsager의 reaction field에서 살펴본 ' | ||
- | 두번째 항의 $ z_{ij}m_j$가 독립적인 ' | + | 두번째 항의 $ z_{0j}m_j$가 독립적인 ' |
$$ \\ $$ | $$ \\ $$ | ||
- | 이를 보다 자세히 설명하자면, | + | 이를 보다 자세히 설명하자면, |
한 위치 $j$로 부터 발생하는 기여분은 또 다른 $j$로 부터 발생하는 기여분과 서로 간섭하지 않는다. | 한 위치 $j$로 부터 발생하는 기여분은 또 다른 $j$로 부터 발생하는 기여분과 서로 간섭하지 않는다. | ||
$$ \\ $$ | $$ \\ $$ | ||
- | 따라서 ' | + | 따라서 ' |
즉, 평균은 $0$이고, 그에 따라 분산은 다음과 같이 표현된다. | 즉, 평균은 $0$이고, 그에 따라 분산은 다음과 같이 표현된다. | ||
- | $$ \sum_j \sum_k [z_{ij}z_{ik}]m_j m_k = \sum_j m_j^2 = N q$$ | + | $$ \sum_j \sum_k [z_{0j}z_{0k}]m_j m_k = \sum_j m_j^2 = N q$$ |
그러므로 두번째 항은 가우스 담금질 랜덤 변수 $z$를 이용하여 $\sqrt{Nq}z$로서 표현이 가능하다. | 그러므로 두번째 항은 가우스 담금질 랜덤 변수 $z$를 이용하여 $\sqrt{Nq}z$로서 표현이 가능하다. | ||
$$ \\ $$ | $$ \\ $$ | ||
- | 이러한 결과들을 가지고서, | + | 이러한 결과들을 가지고서, |
$$ m= \int \text{D}z \tanh (\beta J_0 m + \beta J\sqrt{q}z) $$ | $$ m= \int \text{D}z \tanh (\beta J_0 m + \beta J\sqrt{q}z) $$ | ||
Line 300: | Line 306: | ||
Gino Del Ferraro, Chuang Wang, Dani Martí, and Marc Mézard, Cavity Method: Message Passing from a Physics Perspective, | Gino Del Ferraro, Chuang Wang, Dani Martí, and Marc Mézard, Cavity Method: Message Passing from a Physics Perspective, | ||
+ | |||
+ | Marc Mézard, Giorgio Parisi, and Miguel Ángel Virasoro, Spin Glass Theory and Beyond, 1987. | ||