This is an old revision of the document!
아래는 새로 생성할 예정인 문서들.
Title: 정보 엔트로피
정의
섀넌은 정보량을 표현하기 위해 다음으로 정보 엔트로피를 정의하였다. 임의의 확률 분포 X=(p1,...,pn)에서 계산되는 정보량은
H(X)≡H(p1,...,pn)=−∑xpxlogpx
여기서 log는 밑이 2인 로그를 의미한다. H(X)가 가질수 있는 양의 범위는 px=[0,1],H(X)=[0,1]이며, px=0.5에서 최댓값을 가지는, 대칭인 함수이다. 이 때 px=0인 경우에서 로그의 정의로 인해 log0에 대해 해석하지 못하는 문제가 있는 데, 이 경우 선형함수가 더 빠르게 값이 줄어들어, px=0 이면 H(X)=0log0≃0으로 간주한다.
섀넌의 식은 두 가지로 해석할 수 있다.
- 측정을 한 후 측면에서, “얼마나 많은 정보량을 얻는 가?”
- 측정을 하기 전 측면에서, “불확정성의 양을 측정”
측정을 하고 나면 결과만을 보고, H(X)의 관점에서 생각하면 정보량을 이만큼 얻을 수 있겠다고 생각할 수 있다. 반대로 정보량이 크다는 것은, 어떤 사건이 발생하는 불확실성이 크다는 이야기가 된다.
예제: 동전 던지기
앞면과 뒷면을 던지는 상황을 생각해보자. 앞면(head)이 발생할 확률을 pH, 뒷면(tail)이 발생할 확률은 pT라고 하자. 두 사건의 확률은 다음으로 가정하자.
pH=14pT=34
두 경우만 따지자면, 뒷면이라는 사건이 더 잘 발생할 것으로 보이고, 앞면은 그렇지 않을 것으로 보인다. 실제로도 정보 엔트로피를 계산하면,
H(pH)=−14log14=1.0H(pT)=−34log34≈0.811
으로 앞면에 대한 정보 엔트로피가 더 큰것을 알 수 있다.
참고문헌
- M.A. Nielsen and I.L. Chuang, Quantum Computation and Quantum Information: 10th Anniversary Edition, Cambridge University Press (2010), Chapter 11