user:yong

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
user:yong [2022/03/14 14:59] yonguser:yong [2023/09/05 15:46] (current) – external edit 127.0.0.1
Line 5: Line 5:
 Title: 정보 엔트로피 Title: 정보 엔트로피
  
-=====정의 ====== +===== 불확성 원리의 엔트로피 표현 ===== 
-섀넌은 정보량을 표현기 위해 다음으로 보 엔트로피를 정하였다. 임의의 확률 분포 $X=(p_1, ..., p_n)$에서 계되는 정보량은 +이젠베르크의 불확성 원리와 이를 따르는 엔트로피의 관계식이 있다. 두 허미션 연자 $\hat{A}\,, \hat{B}$, 양자 상태 $| \psi \rangle$이 있다고 하자. 
-  +그리고 $\langle \psi | \hat{A}\hat{B} | \psi \rangle = x+iy$를 가정하자. 이 경우 두 연산자의 교환자와 반교환자의 관계식
-\begin{equation} +
-H(X) \equiv H(p_1...p_n) = -\sum_x p_x \log p_x +
-\end{equation}+
  
-여기서 $\log$는 밑이 2인 로그를 의미한다. $H(X)$가 가질수 있는 양의 범위는 $p_x=[0,1]\,, H(X)=[0,1]$이며, $p_x=0.5$에서 최댓값을 가지는, 대칭인 함수이다. +\begin{align*} 
-이 때 $p_x=0$인 경우에서 로그의 정의로 인해 $\log0$에 대해 해석하지 못하는 문제가 있는 데이 경우 선형함수가 더 빠르게 값이 줄어들어, $p_x=0$ 이면 $H(X)=0\log0\simeq0$으로 간주한다.+\langle \psi | [\hat{A}\hat{B}\psi \rangle 2iy \qquad 
 +\langle \psi | \{\hat{A}, \hat{B}\} | \psi \rangle = 2x 
 +\end{align*}
  
-섀넌의 은 두 가지로 해석할 수 있다.  +이고 이들의 절댓값 제곱의 합은 아래의 을 만족한다.
-  - 측정을 한 후 측면에서, "얼마나 많은 정보량을 얻는 가?" +
-  - 측정을 하기 전 측면에서, "불확정성의 을 측정" +
-측정을 하고 나면 결과을 보고, $H(X)$의 관점에서 생각하면 정보량을 이만큼 얻을 수 있겠다고 생각할 수 있다. 반대로 정보량이 크다는 것은, 어떤 사건이 발생하는 불확실성이 크다는 이야기가 된다.+
  
-===== 예제: 동전 던지기 ===== +\begin{equation*} 
-앞면과 뒷면을 던지는 상황을 생각해보자. 특별히 앞면(head)이 발생할 확률은 $P(H)=1/4$뒷면(tail)이 발생할 확률은 $P(T)=3/4$ 이라고 하자.+| \langle \psi | [\hat{A}\hat{B}] | \psi \rangle |^2 
 ++ | \langle \psi | \{\hat{A}, \hat{B}\} | \psi \rangle |^2 = 4| \langle \psi | \hat{A}\hat{B} | \psi \rangle |^2 
 +\end{equation*}
  
 +여기서 코시-슈바르츠 부등식
 +
 +\begin{equation*}
 +\langle \psi | \hat{A}\hat{B} | \psi \rangle \leq \langle \psi | \hat{A}\cdot\hat{A} | \psi \rangle \langle \psi | \hat{B}\cdot\hat{B} | \psi \rangle
 +\end{equation*}
 +
 +이므로
 +
 +\begin{equation*}
 +\langle \psi | [\hat{A}, \hat{B}] | \psi \rangle \leq 4\langle \psi | \hat{A^2} | \psi \rangle \langle \psi | \hat{B^2} | \psi \rangle
 +\end{equation*}
 +
 +다음으로 관측가능값(observables) $\hat{C}, \hat{D}$를 앞의 허미션 연산자 $\hat{A} = \hat{C} - \langle \hat{C} \rangle$, $\hat{B} = \hat{D} - \langle \hat{D} \rangle$ 의 관계로 두어 계산하면,
 +
 +\begin{align*}
 +\Delta C \cdot \Delta D \geq \frac{\langle \psi | [\hat{C}, \hat{D}] | \psi \rangle}{2}
 +\end{align*}
 +
 +$\Delta C\,,\Delta D$는 C와 D의 표준편차이다. 이제 이 결과를 엔트로피에 적용해보자. 우리가 얻고싶은 식은
 +
 +\begin{equation*}
 +H(\hat{C}) + H(\hat{D}) \geq 2\log\left(\frac{1}{f(\hat{C},\hat{D})}\right)
 +\end{equation*}
 +
 +하지만 이것을 얻는 방법이 약간 복잡해서, 조금 약한 결과
 +
 +\begin{equation*}
 +H(\hat{C}) + H(\hat{D}) \geq -2\log\left(\frac{1+f(\hat{C},\hat{D})}{2}\right)
 +\end{equation*}
 +
 +를 얻어보도록 하자. 관측값 $\hat{C}\,, \hat{D}$에 대한 스펙트럴 분해(고유값 분해)
 +
 +\begin{equation*}
 +\hat{C} = \sum_c \lambda_c | c \rangle \langle c | \qquad \hat{D} = \sum_d \lambda_d | d \rangle \langle d |
 +\end{equation*}
 +
 +그리고 얻고자 하는 식의 함수 f는
 +
 +\begin{equation*}
 +f(\hat{C},\hat{D}) \equiv \max_{C,D} | \langle c | d \rangle |
 +\end{equation*}
 +
 +으로, 이를테면 C와 D가 각각 파울리 행렬 X와 Z인경우, X와 Z의 고유벡터 중 최댓값은 $f(\hat{X},\hat{Z})=1/\sqrt{2}$이다. 마지막으로 각 관측값의 측정으로 얻는 확률을 $p(c)\,, q(d)$라고 하자.
 +먼저 각 엔트로피의 합은
 +
 +\begin{equation*}
 +H(\hat{C}) + H(\hat{D}) = -\sum_{c,d}p(c)q(d)\log p(c)q(d)
 +\end{equation*}
 +
 +$p(c)\,, q(d)$는 양자상태 $| \psi \rangle$의 투영측정으로 얻을 수 있다.
 +
 +\begin{equation*}
 +p(c) = | \langle c | \psi \rangle |^2 \qquad q(d) = | \langle d | \psi \rangle |^2 \qquad p(c)q(d) = | \langle c | \psi \rangle \langle d | \psi \rangle |^2 = | \langle c | \psi \rangle \langle \psi | d \rangle |^2
 +\end{equation*}
 +
 +한편, $| \psi \rangle$이 $| c \rangle\,, | d \rangle$으로 생성된(spanned) 공간으로 임의의 상태 $| \tilde\psi \rangle$로 투영측정된다고 하면, $p(c)q(d)$의 확률은
 +
 +\begin{equation*}
 +p(c)q(d) = | \langle c | \psi \rangle \langle \psi | d \rangle |^2 = \lambda^2\cos^2(\theta-\phi)\cos^2(\phi)
 +\end{equation*}
 +
 +따라서 $\lambda=1\,, \phi=\theta/2$에서 확률의 최댓값을 만족하게 된다. 그러므로,
 +
 +\begin{equation*}
 +p(c)q(d) = \cos^4(\theta/2) = \left(\frac{1+\cos\theta}{2}\right)^2 = \left(\frac{1+|\langle c | d \rangle |}{2}\right)^2 = \left(\frac{1+f(\hat{C},\hat{D})}{2}\right)^2
 +\end{equation*}
 +
 +이며 이경우에는 엔트로피 최솟값이 되므로, $H(\hat{C}) + H(\hat{D})$의 부등식이 성립하게 된다.
 +
 +====== 참고문헌 ======
 +  * M.A. Nielsen and I.L. Chuang, //Quantum Computation and Quantum Information: 10th Anniversary Edition//, Cambridge University Press (2010), Chapter 11
 +  * D. Deutsch, //Uncertainty in Quantum Measurements//, PhysRevLett.50.631 (1983), 631--633, [[https://link.aps.org/doi/10.1103/PhysRevLett.50.631]]
  
  • user/yong.1647237564.txt.gz
  • Last modified: 2023/09/05 15:46
  • (external edit)