Differences
This shows you the differences between two versions of the page.
| Both sides previous revision Previous revision Next revision | Previous revision | ||
| 수학:인자_그래프 [2026/03/30 10:42] – [온사거 반작용항] admin | 수학:인자_그래프 [2026/04/01 13:39] (current) – [$p$-스핀 유리 모형] admin | ||
|---|---|---|---|
| Line 139: | Line 139: | ||
| $$p(x_i) = \frac{1}{Z} f_{(i)}(x_i) \prod_{k \in \hat\partial i} \left[ \sum_{x_k} f_{(i, | $$p(x_i) = \frac{1}{Z} f_{(i)}(x_i) \prod_{k \in \hat\partial i} \left[ \sum_{x_k} f_{(i, | ||
| - | ====온사거 | + | ====온사거 |
| 비록 트리는 아니지만 이 결과가 [[물리: | 비록 트리는 아니지만 이 결과가 [[물리: | ||
| \begin{eqnarray*} | \begin{eqnarray*} | ||
| Line 176: | Line 176: | ||
| \end{eqnarray*} | \end{eqnarray*} | ||
| - | $\mathbb{E}_i$가 분자와 분모에 모두 등장하므로 $\mu_{k\to (i,k)}$에 상수를 곱해도 무방하다. $\mathbb{E}_i 1 = 1$이 되게끔 정규화를 시행하고 아래의 양을 정의하자: | + | $\mathbb{E}_i$가 분자와 분모에 모두 등장하므로 $\mu_{k\to (i,k)}$에 상수를 곱해도 무방하다. $\mathbb{E}_i 1 = 1$이 되게끔 정규화 |
| + | $$\mu_{k\to (i, | ||
| + | 을 시행하고 아래의 양을 정의하자: | ||
| $$m_{k\to i} \equiv \mathbb{E}_i \sigma_k.$$ | $$m_{k\to i} \equiv \mathbb{E}_i \sigma_k.$$ | ||
| 앞서의 $N=3$의 예에서 $i=0$이고 $k=1$이라면 | 앞서의 $N=3$의 예에서 $i=0$이고 $k=1$이라면 | ||
| Line 184: | Line 186: | ||
| && - \mu_{1\to (0,1)} (\sigma_1=-1) \times \mu_{2\to (0,2)} (\sigma_2=+1)\\ | && - \mu_{1\to (0,1)} (\sigma_1=-1) \times \mu_{2\to (0,2)} (\sigma_2=+1)\\ | ||
| && - \mu_{1\to (0,1)} (\sigma_1=-1) \times \mu_{2\to (0,2)} (\sigma_2=-1)\\ | && - \mu_{1\to (0,1)} (\sigma_1=-1) \times \mu_{2\to (0,2)} (\sigma_2=-1)\\ | ||
| - | &=& \mu_{1\to (0,1)} (\sigma_1=+1) - \mu_{1\to (0,1)} (\sigma_1=-1)\\ | + | &=& \mu_{1\to (0,1)} (\sigma_1=+1) - \mu_{1\to (0,1)} (\sigma_1=-1), |
| - | &=& 2\mu_{1\to (0,1)} (\sigma_1=+1) - 1. | + | |
| \end{eqnarray*} | \end{eqnarray*} | ||
| $k=2$라면 | $k=2$라면 | ||
| Line 193: | Line 194: | ||
| && + \mu_{1\to (0,1)} (\sigma_1=-1) \times \mu_{2\to (0,2)} (\sigma_2=+1)\\ | && + \mu_{1\to (0,1)} (\sigma_1=-1) \times \mu_{2\to (0,2)} (\sigma_2=+1)\\ | ||
| && - \mu_{1\to (0,1)} (\sigma_1=-1) \times \mu_{2\to (0,2)} (\sigma_2=-1)\\ | && - \mu_{1\to (0,1)} (\sigma_1=-1) \times \mu_{2\to (0,2)} (\sigma_2=-1)\\ | ||
| - | &=& \mu_{2\to (0,2)} (\sigma_2=+1) - \mu_{2\to (0,2)} (\sigma_2=-1)\\ | + | &=& \mu_{2\to (0,2)} (\sigma_2=+1) - \mu_{2\to (0,2)} (\sigma_2=-1) |
| - | &=& 2\mu_{2\to (0,2)} (\sigma_2=+1) - 1. | + | |
| \end{eqnarray*} | \end{eqnarray*} | ||
| + | 이다. | ||
| 따라서 $m_{k\to i}$는 변수 노드 $k$에서 인자 노드 $(i,k)$로 보내는 메시지가 $\sigma_k=\pm 1$에서 보이는 값의 차이라고 할 수 있다. 이는 값이 $+1$일 확률이 $\mu_{k\to (i,k)} (\sigma_k=+1)$이고 $-1$일 확률이 $\mu_{k\to (i,k)} (\sigma_k=-1)$인 이항 분포의 평균과 같다. | 따라서 $m_{k\to i}$는 변수 노드 $k$에서 인자 노드 $(i,k)$로 보내는 메시지가 $\sigma_k=\pm 1$에서 보이는 값의 차이라고 할 수 있다. 이는 값이 $+1$일 확률이 $\mu_{k\to (i,k)} (\sigma_k=+1)$이고 $-1$일 확률이 $\mu_{k\to (i,k)} (\sigma_k=-1)$인 이항 분포의 평균과 같다. | ||
| 다음과 같은 양을 정의하면 | 다음과 같은 양을 정의하면 | ||
| Line 223: | Line 224: | ||
| & | & | ||
| \end{eqnarray*} | \end{eqnarray*} | ||
| + | 마지막 줄에서 첫 항이 $m_{k\to i}$으로 표현되는 이유는 이렇다: 그 앞 줄의 첫째 항을 보면 $j=i$인 경우가 셈에서 빠지는데, | ||
| + | |||
| 중요한 사실은, $m_k-m_{k\to i}$이 $1/ | 중요한 사실은, $m_k-m_{k\to i}$이 $1/ | ||
| $$m_i \approx \tanh \left[ \beta h + \sum_{k\neq i} \frac{1}{\sqrt{N}} \beta J_{ik} m_k - \beta^2 m_i \sum_{k\neq i} \frac{J_{ik}^2}{N} \left(1-m_k^2\right) \right].$$ | $$m_i \approx \tanh \left[ \beta h + \sum_{k\neq i} \frac{1}{\sqrt{N}} \beta J_{ik} m_k - \beta^2 m_i \sum_{k\neq i} \frac{J_{ik}^2}{N} \left(1-m_k^2\right) \right].$$ | ||
| Line 230: | Line 233: | ||
| & | & | ||
| \end{eqnarray*} | \end{eqnarray*} | ||
| - | [[물리: | + | [[물리: |
| ====복제 대칭 해==== | ====복제 대칭 해==== | ||
| Line 247: | Line 250: | ||
| \end{eqnarray*} | \end{eqnarray*} | ||
| 이는 [[물리: | 이는 [[물리: | ||
| + | |||
| + | =====$p$-스핀 유리 모형===== | ||
| + | [[물리: | ||
| + | 본래는 계 안에서 임의로 어떤 $p$개의 스핀을 잡아도 상호작용이 존재하는 모형이다. | ||
| + | 그러나 근사식을 유도하기 위해 먼저 공간적으로 트리 구조를 이루고 있다고 가정하자. $p=3$을 예로 들어 어떤 변수 노드 $x_0$를 중심으로 인자 그래프를 그리면 다음과 같은 모양이 될 것이다. | ||
| + | |||
| + | {{: | ||
| + | |||
| + | \begin{eqnarray*} | ||
| + | p(x_0) &=& \left[\sum_{x_1, | ||
| + | && \times \left[\sum_{x_5, | ||
| + | \end{eqnarray*} | ||
| + | |||
| + | 정규화가 미리 되어있지 않다고 하면 분모에 정규화 상수를 써주고 스핀에 대한 표기법으로 적어주자. 모든 스핀이 연결된 상황에서도 위의 식이 성립한다고 보기 때문에 근사식이다. 편의상 $p=3$이라고 하고 적은 다음 일반화할 것이다. 그리고 앞 절과 달리, 평균 $0$이고 분산이 $J^2 p! / N^{p-1}$인 정규분포에서 무작위로 결합상수들을 추출하였다고 가정하여 $N$에 대한 의존성을 결합상수 안에 집어넣을 것이다. 결합상수에 달린 인덱스에 중복이 있으면 모두 $0$으로 간주한다. 즉 $J_{iij} = J_{ijj} = \ldots = 0$이다. 그리고 동일한 $p$ 스핀 집합을 여러 번 셈하는 일을 피하기 위해, 좌변에 고정된 $i$를 제외한 나머지 $k_1$, $k_2$ 등의 인덱스는 오름차순으로 정렬한다. | ||
| + | \begin{eqnarray*} | ||
| + | p(\sigma_i) & | ||
| + | \end{eqnarray*} | ||
| + | 메시지의 곱들로 정의되는 곱측도(product measure)에 대한 평균을 $\mathbb{E}_i$로 정의하자. $m_{k\to i} \equiv \mathbb{E}_i \sigma_k$이다. | ||
| + | 이어 $\sigma_i$의 평균 $m_i = p(\sigma_i=+1) - p(\sigma_i = -1)$을 적어보면, | ||
| + | \begin{eqnarray*} | ||
| + | m_i & | ||
| + | \end{eqnarray*} | ||
| + | 이때 다음의 양을 정의하자. | ||
| + | $$X_i \equiv \sum_{k_1< | ||
| + | $N$이 충분히 클 때에 정규 분포를 따를 것이므로 $m_i$에 대한 식을 다음처럼 적을 수 있다: | ||
| + | \begin{eqnarray*} | ||
| + | m_i & | ||
| + | \end{eqnarray*} | ||
| + | $\tanh$ 안에 있는 식들을 정리하기 위해 다음처럼 고쳐 적자: | ||
| + | \begin{eqnarray*} | ||
| + | m_k & | ||
| + | &=& \tanh \left( \beta h + \sum_{j_1< | ||
| + | & | ||
| + | & | ||
| + | \end{eqnarray*} | ||
| + | 따라서 $m_{k\to i}$를 $m_k$와 보정항으로 근사하여 다음처럼 적을 수 있다: | ||
| + | \begin{eqnarray*} | ||
| + | m_{k\to i} & | ||
| + | & | ||
| + | &=& m_k - \chi_k h_{k\to i}. | ||
| + | \end{eqnarray*} | ||
| + | $m_k$에서 감해지고 있는 부분이 온사거 보정항에 해당한다. | ||
| + | 일반적인 $p$에 대해서는 표현식들이 이렇게 정의된다: | ||
| + | \begin{eqnarray*} | ||
| + | \chi_k & | ||
| + | h_{k\to i} & | ||
| + | &=& m_i \frac{1}{(p-2)!} \sum_{j_3, \ldots, j_p} J_{kij_3\ldots j_p} m_{j_3} \cdots m_{j_p}. | ||
| + | \end{eqnarray*} | ||
| + | 이제 이 결과들을 $m_i$에 대한 식에 다시 대입한다: | ||
| + | \begin{eqnarray*} | ||
| + | m_i & | ||
| + | & | ||
| + | &=& \tanh \left[ \beta h + \frac{\beta}{(p-1)!} \sum_{k_2, \ldots, k_p} J_{ik_2 \ldots k_p} \left( m_{k_2} - \chi_{k_2} h_{k_2\to i} \right) \cdots \left( m_{k_p} - \chi_{k_p} h_{k_p\to i} \right) \right]. | ||
| + | \end{eqnarray*} | ||
| + | 전개 후 결합상수의 낮은 차수에 대해서만 남겨두면 다음과 같고 | ||
| + | \begin{eqnarray*} | ||
| + | \frac{\beta}{(p-1)!} \sum_{k_2, \ldots, k_p} J_{ik_2 \ldots k_p} \left( m_{k_2} - \chi_{k_2} h_{k_1\to i} \right) \cdots \left( m_{k_p} - \chi_{k_p} h_{k_p\to i} \right) | ||
| + | & | ||
| + | \end{eqnarray*} | ||
| + | 이 중 마지막 항은 다음처럼 고쳐 쓸 수 있다: | ||
| + | \begin{eqnarray*} | ||
| + | && | ||
| + | & | ||
| + | &=& \frac{\beta}{(p-2)!} \sum_{k_2, \ldots, k_p} J_{ik_2 \ldots k_p} m_{k_3} \cdots m_{k_p} \times \chi_{k_2} h_{k_2\to i} \\ | ||
| + | &=& \frac{\beta^2}{(p-2)!} \sum_{k_2, \ldots, k_p} J_{ik_2 \ldots k_p} m_{k_3} \cdots m_{k_p} \times \left(1-m_{k_2}^2 \right) \left[ m_i \frac{1}{(p-2)!} \sum_{j_3 \ldots j_p} J_{k_2ij_3\ldots j_p} m_{j_3} \cdots m_{j_p} \right]\\ | ||
| + | &=& \frac{\beta^2 m_i}{\left[(p-2)!\right]^2} \sum_{k_2} \left(1-m_{k_2}^2 \right) \left[ \sum_{k_3, | ||
| + | \end{eqnarray*} | ||
| + | 마지막의 $\left[ \ldots \right]^2$에서, | ||
| + | \begin{eqnarray*} | ||
| + | \left[ \sum_{k_3, | ||
| + | \end{eqnarray*} | ||
| + | 순열(permutation)에 대해 대칭적인 항들이 좌변의 합에는 $\left[(p-2)!\right]^2$개 등장하는 반면 우변의 합에서는 $(p-2)!$개만 등장하므로 그 앞에 $(p-2)!$을 써주었다. | ||
| + | |||
| + | 이제 결과들을 모아서 써보자. | ||
| + | \begin{eqnarray*} | ||
| + | m_i & | ||
| + | & | ||
| + | \end{eqnarray*} | ||
| + | $N$이 클 때 $J_{ijk_3 \ldots k_p}$는 $m_j, m_{k_3}, | ||
| + | $$q \equiv \frac{1}{N} \sum_{i=1}^N m_i^2$$ | ||
| + | 으로 정의하면 상관함수는 모두 쪼개져서 다음처럼 쓰여진다: | ||
| + | $$\frac{1}{N} \sum_{k_p} J_{ijk_3 \ldots k_p}^2 m_{k_p}^2 \approx \langle J_{ijk_3 \ldots k_p}^2 \rangle \langle m_{k_p}^2 \rangle = \frac{J^2 p!}{2N^{p-1}}q.$$ | ||
| + | 결론적으로, | ||
| + | \begin{eqnarray*} | ||
| + | m_i & | ||
| + | &=& \tanh \left[ \beta h + \frac{\beta}{(p-1)!} \sum_{k_2, \ldots, k_p} J_{ik_2 \ldots k_p} m_{k_2} \cdots m_{k_p} - m_i (\beta J)^2 \frac{p(p-1)}{2} (1-q) q^{p-2} \right]. | ||
| + | \end{eqnarray*} | ||
| + | |||
| + | $\partial q/\partial m_i = 2m_i / N$에 유의하면, | ||
| + | \begin{eqnarray*} | ||
| + | \beta f &=& \frac{1}{2N} \sum_i \left[ (1+m_i) \ln \left( \frac{1+m_i}{2} \right) + (1-m_i) \ln \left( \frac{1-m_i}{2} \right) \right] - \frac{\beta}{N} \sum_{i_1< | ||
| + | \end{eqnarray*} | ||
| + | 가장 마지막의 $+1$은 $m_i$로의 미분에 영향을 주지 않지만, 이것을 더함으로써 $\forall m_i=0$일 때 [[물리: | ||
| + | |||
| + | |||
| ======같이 보기====== | ======같이 보기====== | ||
| * [[물리: | * [[물리: | ||
| * [[물리: | * [[물리: | ||
| + | * [[물리: | ||
| + | * [[물리: | ||
| ======참고문헌====== | ======참고문헌====== | ||
| * Christopher Bishop, //Pattern Recognition and Machine Learning// (Springer, New York, 2006). | * Christopher Bishop, //Pattern Recognition and Machine Learning// (Springer, New York, 2006). | ||
| Line 255: | Line 355: | ||
| * Marc Mézard and Andrea Montanari, // | * Marc Mézard and Andrea Montanari, // | ||
| * https:// | * https:// | ||
| + | * H. Rieger, // The number of solutions of the Thouless-Anderson-Palmer equations for p-spin-interaction spin glasses//, [[https:// | ||