Differences
This shows you the differences between two versions of the page.
| Both sides previous revision Previous revision Next revision | Previous revision | ||
| 수학:인자_그래프 [2026/03/31 11:40] – [복제 대칭 해] admin | 수학:인자_그래프 [2026/04/01 13:39] (current) – [$p$-스핀 유리 모형] admin | ||
|---|---|---|---|
| Line 252: | Line 252: | ||
| =====$p$-스핀 유리 모형===== | =====$p$-스핀 유리 모형===== | ||
| + | [[물리: | ||
| + | 본래는 계 안에서 임의로 어떤 $p$개의 스핀을 잡아도 상호작용이 존재하는 모형이다. | ||
| + | 그러나 근사식을 유도하기 위해 먼저 공간적으로 트리 구조를 이루고 있다고 가정하자. $p=3$을 예로 들어 어떤 변수 노드 $x_0$를 중심으로 인자 그래프를 그리면 다음과 같은 모양이 될 것이다. | ||
| + | |||
| + | {{: | ||
| + | |||
| + | \begin{eqnarray*} | ||
| + | p(x_0) &=& \left[\sum_{x_1, | ||
| + | && \times \left[\sum_{x_5, | ||
| + | \end{eqnarray*} | ||
| + | |||
| + | 정규화가 미리 되어있지 않다고 하면 분모에 정규화 상수를 써주고 스핀에 대한 표기법으로 적어주자. 모든 스핀이 연결된 상황에서도 위의 식이 성립한다고 보기 때문에 근사식이다. 편의상 $p=3$이라고 하고 적은 다음 일반화할 것이다. 그리고 앞 절과 달리, 평균 $0$이고 분산이 $J^2 p! / N^{p-1}$인 정규분포에서 무작위로 결합상수들을 추출하였다고 가정하여 $N$에 대한 의존성을 결합상수 안에 집어넣을 것이다. 결합상수에 달린 인덱스에 중복이 있으면 모두 $0$으로 간주한다. 즉 $J_{iij} = J_{ijj} = \ldots = 0$이다. 그리고 동일한 $p$ 스핀 집합을 여러 번 셈하는 일을 피하기 위해, 좌변에 고정된 $i$를 제외한 나머지 $k_1$, $k_2$ 등의 인덱스는 오름차순으로 정렬한다. | ||
| + | \begin{eqnarray*} | ||
| + | p(\sigma_i) & | ||
| + | \end{eqnarray*} | ||
| + | 메시지의 곱들로 정의되는 곱측도(product measure)에 대한 평균을 $\mathbb{E}_i$로 정의하자. $m_{k\to i} \equiv \mathbb{E}_i \sigma_k$이다. | ||
| + | 이어 $\sigma_i$의 평균 $m_i = p(\sigma_i=+1) - p(\sigma_i = -1)$을 적어보면, | ||
| + | \begin{eqnarray*} | ||
| + | m_i & | ||
| + | \end{eqnarray*} | ||
| + | 이때 다음의 양을 정의하자. | ||
| + | $$X_i \equiv \sum_{k_1< | ||
| + | $N$이 충분히 클 때에 정규 분포를 따를 것이므로 $m_i$에 대한 식을 다음처럼 적을 수 있다: | ||
| + | \begin{eqnarray*} | ||
| + | m_i & | ||
| + | \end{eqnarray*} | ||
| + | $\tanh$ 안에 있는 식들을 정리하기 위해 다음처럼 고쳐 적자: | ||
| + | \begin{eqnarray*} | ||
| + | m_k & | ||
| + | &=& \tanh \left( \beta h + \sum_{j_1< | ||
| + | & | ||
| + | & | ||
| + | \end{eqnarray*} | ||
| + | 따라서 $m_{k\to i}$를 $m_k$와 보정항으로 근사하여 다음처럼 적을 수 있다: | ||
| + | \begin{eqnarray*} | ||
| + | m_{k\to i} & | ||
| + | & | ||
| + | &=& m_k - \chi_k h_{k\to i}. | ||
| + | \end{eqnarray*} | ||
| + | $m_k$에서 감해지고 있는 부분이 온사거 보정항에 해당한다. | ||
| + | 일반적인 $p$에 대해서는 표현식들이 이렇게 정의된다: | ||
| + | \begin{eqnarray*} | ||
| + | \chi_k & | ||
| + | h_{k\to i} & | ||
| + | &=& m_i \frac{1}{(p-2)!} \sum_{j_3, \ldots, j_p} J_{kij_3\ldots j_p} m_{j_3} \cdots m_{j_p}. | ||
| + | \end{eqnarray*} | ||
| + | 이제 이 결과들을 $m_i$에 대한 식에 다시 대입한다: | ||
| + | \begin{eqnarray*} | ||
| + | m_i & | ||
| + | & | ||
| + | &=& \tanh \left[ \beta h + \frac{\beta}{(p-1)!} \sum_{k_2, \ldots, k_p} J_{ik_2 \ldots k_p} \left( m_{k_2} - \chi_{k_2} h_{k_2\to i} \right) \cdots \left( m_{k_p} - \chi_{k_p} h_{k_p\to i} \right) \right]. | ||
| + | \end{eqnarray*} | ||
| + | 전개 후 결합상수의 낮은 차수에 대해서만 남겨두면 다음과 같고 | ||
| + | \begin{eqnarray*} | ||
| + | \frac{\beta}{(p-1)!} \sum_{k_2, \ldots, k_p} J_{ik_2 \ldots k_p} \left( m_{k_2} - \chi_{k_2} h_{k_1\to i} \right) \cdots \left( m_{k_p} - \chi_{k_p} h_{k_p\to i} \right) | ||
| + | & | ||
| + | \end{eqnarray*} | ||
| + | 이 중 마지막 항은 다음처럼 고쳐 쓸 수 있다: | ||
| + | \begin{eqnarray*} | ||
| + | && | ||
| + | & | ||
| + | &=& \frac{\beta}{(p-2)!} \sum_{k_2, \ldots, k_p} J_{ik_2 \ldots k_p} m_{k_3} \cdots m_{k_p} \times \chi_{k_2} h_{k_2\to i} \\ | ||
| + | &=& \frac{\beta^2}{(p-2)!} \sum_{k_2, \ldots, k_p} J_{ik_2 \ldots k_p} m_{k_3} \cdots m_{k_p} \times \left(1-m_{k_2}^2 \right) \left[ m_i \frac{1}{(p-2)!} \sum_{j_3 \ldots j_p} J_{k_2ij_3\ldots j_p} m_{j_3} \cdots m_{j_p} \right]\\ | ||
| + | &=& \frac{\beta^2 m_i}{\left[(p-2)!\right]^2} \sum_{k_2} \left(1-m_{k_2}^2 \right) \left[ \sum_{k_3, | ||
| + | \end{eqnarray*} | ||
| + | 마지막의 $\left[ \ldots \right]^2$에서, | ||
| + | \begin{eqnarray*} | ||
| + | \left[ \sum_{k_3, | ||
| + | \end{eqnarray*} | ||
| + | 순열(permutation)에 대해 대칭적인 항들이 좌변의 합에는 $\left[(p-2)!\right]^2$개 등장하는 반면 우변의 합에서는 $(p-2)!$개만 등장하므로 그 앞에 $(p-2)!$을 써주었다. | ||
| + | |||
| + | 이제 결과들을 모아서 써보자. | ||
| + | \begin{eqnarray*} | ||
| + | m_i & | ||
| + | & | ||
| + | \end{eqnarray*} | ||
| + | $N$이 클 때 $J_{ijk_3 \ldots k_p}$는 $m_j, m_{k_3}, | ||
| + | $$q \equiv \frac{1}{N} \sum_{i=1}^N m_i^2$$ | ||
| + | 으로 정의하면 상관함수는 모두 쪼개져서 다음처럼 쓰여진다: | ||
| + | $$\frac{1}{N} \sum_{k_p} J_{ijk_3 \ldots k_p}^2 m_{k_p}^2 \approx \langle J_{ijk_3 \ldots k_p}^2 \rangle \langle m_{k_p}^2 \rangle = \frac{J^2 p!}{2N^{p-1}}q.$$ | ||
| + | 결론적으로, | ||
| + | \begin{eqnarray*} | ||
| + | m_i & | ||
| + | &=& \tanh \left[ \beta h + \frac{\beta}{(p-1)!} \sum_{k_2, \ldots, k_p} J_{ik_2 \ldots k_p} m_{k_2} \cdots m_{k_p} - m_i (\beta J)^2 \frac{p(p-1)}{2} (1-q) q^{p-2} \right]. | ||
| + | \end{eqnarray*} | ||
| + | |||
| + | $\partial q/\partial m_i = 2m_i / N$에 유의하면, | ||
| + | \begin{eqnarray*} | ||
| + | \beta f &=& \frac{1}{2N} \sum_i \left[ (1+m_i) \ln \left( \frac{1+m_i}{2} \right) + (1-m_i) \ln \left( \frac{1-m_i}{2} \right) \right] - \frac{\beta}{N} \sum_{i_1< | ||
| + | \end{eqnarray*} | ||
| + | 가장 마지막의 $+1$은 $m_i$로의 미분에 영향을 주지 않지만, 이것을 더함으로써 $\forall m_i=0$일 때 [[물리: | ||
| + | |||
| + | |||
| ======같이 보기====== | ======같이 보기====== | ||
| * [[물리: | * [[물리: | ||
| * [[물리: | * [[물리: | ||
| + | * [[물리: | ||
| + | * [[물리: | ||
| ======참고문헌====== | ======참고문헌====== | ||
| * Christopher Bishop, //Pattern Recognition and Machine Learning// (Springer, New York, 2006). | * Christopher Bishop, //Pattern Recognition and Machine Learning// (Springer, New York, 2006). | ||