user:yong

This is an old revision of the document!


아래는 새로 생성할 예정인 문서들.


Title: 정보 엔트로피

정의

섀넌은 정보량을 표현하기 위해 다음으로 정보 엔트로피를 정의하였다. 임의의 확률 분포 $X=(p_1, ..., p_n)$에서 계산되는 정보량은

\begin{equation} H(X) \equiv H(p_1, ..., p_n) = -\sum_x p_x \log p_x \end{equation}

여기서 $\log$는 밑이 2인 로그를 의미한다. $H(X)$가 가질수 있는 양의 범위는 $p_x=[0,1]\,, H(X)=[0,1]$이며, $p_x=0.5$에서 최댓값을 가지는, 대칭인 함수이다. 이 때 $p_x=0$인 경우에서 로그의 정의로 인해 $\log0$에 대해 해석하지 못하는 문제가 있는 데, 이 경우 선형함수가 더 빠르게 값이 줄어들어, $p_x=0$ 이면 $H(X)=0\log0\simeq0$으로 간주한다.

섀넌의 식은 두 가지로 해석할 수 있다.

  1. 측정을 한 후 측면에서, “얼마나 많은 정보량을 얻는 가?”
  2. 측정을 하기 전 측면에서, “불확정성의 양을 측정”

측정을 하고 나면 결과만을 보고, $H(X)$의 관점에서 생각하면 정보량을 이만큼 얻을 수 있겠다고 생각할 수 있다. 반대로 정보량이 크다는 것은, 어떤 사건이 발생하는 불확실성이 크다는 이야기가 된다.

앞면과 뒷면을 던지는 상황을 생각해보자. 특별히 앞면(head)이 발생할 확률은 $P(H)=1/4$, 뒷면(tail)이 발생할 확률은 $P(T)=3/4$ 이라고 하자.

  • user/yong.1647237564.txt.gz
  • Last modified: 2023/09/05 15:46
  • (external edit)