수학:베이지언_자백약

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
수학:베이지언_자백약 [2017/01/03 16:01] – [개요] admin수학:베이지언_자백약 [2023/09/05 15:46] (current) – external edit 127.0.0.1
Line 1: Line 1:
 ======개요====== ======개요======
-주관적인 답만이 가능한 문제에 대해 진실한 응답을 하는 것이 [[수학:내쉬 균형]]이 되게끔 설계된 게임.+주관적인 답만이 가능한 문제에 대해 진실한 응답을 하는 것이 [[수학:내쉬 균형]]이 되게끔 설계된 게임. [[수학:베이즈의 정리]]를 사용해 추론할 경우 자신이 알고 있는 진실의 빈도를 다른 사람들은 과소평가해서 예측할 것으로 기대한다는 점을 이용한다. 예를 들어 내가 가장 좋아하는 화가가 피카소라고 하면 나는 많은 사람들, 예컨대 100명 중 피카소를 꼽는 사람이 적어도 한 명(=나) 있다는 것을 안다. 하지만 나는 `다른 사람들은 이 사실을 몰라서 피카소 애호가의 비율을 1/1000 정도로 과소평가해서 예측할 것'으로 기대한다는 것이다.
  
 +======정식화======
 응답해야 할 문제는 $m$ 개의 문항 중 하나를 고르는 것으로, 진실되게 답할 수도 있고 거짓으로 답할 수도 있다. 응답자 $r$이 가지고 있는 진실을 $t^r = (t_1^r, \ldots, t_m^r)$이라고 하자. 이 때 $t_k^r$은 0 또는 1이며 특정 $k$ 하나에 대해서만 1이어야 한다. 이 사람의 답은 $x^r = (x_1^r, \ldots, x_m^r)$로 적는데, 역시 $x_k^r$은 0 또는 1이며 특정한 $k$ 하나에 대해서만 1이어야 한다. 응답해야 할 문제는 $m$ 개의 문항 중 하나를 고르는 것으로, 진실되게 답할 수도 있고 거짓으로 답할 수도 있다. 응답자 $r$이 가지고 있는 진실을 $t^r = (t_1^r, \ldots, t_m^r)$이라고 하자. 이 때 $t_k^r$은 0 또는 1이며 특정 $k$ 하나에 대해서만 1이어야 한다. 이 사람의 답은 $x^r = (x_1^r, \ldots, x_m^r)$로 적는데, 역시 $x_k^r$은 0 또는 1이며 특정한 $k$ 하나에 대해서만 1이어야 한다.
  
Line 9: Line 10:
  
 이 응답자는 자신이 다음과 같은 보수를 얻게 됨을 안다: 이 응답자는 자신이 다음과 같은 보수를 얻게 됨을 안다:
-$$u^r = \sum_k x_k^r \log \frac{\bar{x}_k}{\bar{y}_k} + \alpha \sum_k \bar{x}_k \log \frac{y_k^r}{\bar{x}_k}$$ +$$u^r = \sum_{k=1}^m x_k^r \log \frac{\bar{x}_k}{\bar{y}_k} + \alpha \sum_{k=1}^m \bar{x}_k \log \frac{y_k^r}{\bar{x}_k}.$$ 
-이다. 이 때에 앞의 항을 정보 점수(information score), 뒤의 항을 예측 점수 (prediction score)라고 부른다. $x_k^r$은 0 아니면 1이므로, 정보 점수에서는 응답자가 고른 하나의 $k$만 기여한다.+이 때에 앞의 항을 정보 점수(information score), 뒤의 항을 예측 점수 (prediction score)라고 부른다. 예측 점수는 쿨백-라이블러 분산(Kullback-Leibler divergence) 형태로 표현되었음에 주의한다. $x_k^r$은 0 아니면 1이므로, 정보 점수에서는 응답자가 고른 하나의 $k$만 기여한다.
 $\alpha$는 0보다 큰 실수이며 $\alpha$는 0보다 큰 실수이며
 $$\bar{x}_k \equiv \lim_{n \rightarrow \infty} \frac{1}{n} \sum_{r=1}^n x_k^r$$ $$\bar{x}_k \equiv \lim_{n \rightarrow \infty} \frac{1}{n} \sum_{r=1}^n x_k^r$$
Line 22: Line 23:
  
 ====앞면을 본 사람의 사후확률==== ====앞면을 본 사람의 사후확률====
-내가 던진 결과 앞면을 보았고, 다른 말로 나의 진실이 $t_1 \equiv (1,0)$이라고 생각해보자. 그러면 나는 동전에 앞면만 있다는 심증 쪽으로 더 기울 것이다. 즉 +내가 던진 결과 앞면을 보았고, 다른 말로 나의 진실이 $t_1 \equiv (1,0)$이라고 생각해보자. 그러면 나는 동전에 앞면만 있다는 심증 쪽으로 더 기울 것이다. 즉 [[수학:확률|베이즈의 정리]]에 의해 
-$$p[\omega=(1,0)|t_1]=\frac{p[t_1|\omega=(1,0)] \times p[\omega=(1,0)]}{p[t_1|\omega=(1,0)] \times p[\omega=(1,0)] + p[t_1|\omega=(1/2,1/2)] \times p[\omega=(1/2,1/2)]} = \frac{1/2 \times 1/2}{1 \times 1/2 + 1/2 \times 1/2} = \frac{2}{3}$$+\begin{eqnarray*} 
 +p[\omega=(1,0)|t_1]&=&\frac{p[t_1|\omega=(1,0)] \times p[\omega=(1,0)]}{p[t_1|\omega=(1,0)] \times p[\omega=(1,0)] + p[t_1|\omega=(1/2,1/2)] \times p[\omega=(1/2,1/2)]}\\&=\frac{1 \times 1/2}{1 \times 1/2 + 1/2 \times 1/2} = \frac{2}{3} 
 +\end{eqnarray*}
 이고 따라서 $p[\omega=(1/2,1/2)|t_1]=1/3$이라는 것이 나의 사후확률이다. 이고 따라서 $p[\omega=(1/2,1/2)|t_1]=1/3$이라는 것이 나의 사후확률이다.
  
 모든 사람이 이 동전을 던진 후 진실을 응답한다고 가정해보자. 그러면 내가 생각했을 때, 가능성은 두 가지이다. 먼저 $2/3$의 확률로 $\omega=(1,0)$이어서 $(\bar{x}_1, \bar{x}_2) = (\omega_1, \omega_2) = (1,0)$일 것이다. 혹은 $1/3$의 확률로 $\omega=(1/2,1/2)$이어서 $(\bar{x}_1, \bar{x}_2) = (\omega_1, \omega_2) = (1/2,1/2)$일 것이다. 모든 사람이 이 동전을 던진 후 진실을 응답한다고 가정해보자. 그러면 내가 생각했을 때, 가능성은 두 가지이다. 먼저 $2/3$의 확률로 $\omega=(1,0)$이어서 $(\bar{x}_1, \bar{x}_2) = (\omega_1, \omega_2) = (1,0)$일 것이다. 혹은 $1/3$의 확률로 $\omega=(1/2,1/2)$이어서 $(\bar{x}_1, \bar{x}_2) = (\omega_1, \omega_2) = (1/2,1/2)$일 것이다.
  
-이렇게 내가 앞면을 한번 본 상황($t_1$)에서 얼마나 많은 다른 사람들이 앞면을 볼지($t_1$) 예측되는 빈도를 $p(t_1|t_1)$이라고 하자. 이 값은 $p(t_1|t_1) = 2/3 \times 1 + 1/3 \times 1/2 = 5/6$이다. 마찬가지로 내가 앞면을 한번 본 상황($t_1$)에서 얼마나 많은 다른 사람들이 뒷면을 봤을지($t_2$) 예측되는 빈도는 $p(t_2|t_1) = 2/3 \times 0 + 1/3 \times 1/2 = 1/6$이다.+이렇게 내가 앞면을 한번 본 상황($t_1$)에서 얼마나 많은 다른 사람들이 앞면을 볼지($t_1$) 예측되는 빈도 $p(t_1|t_1)$를 추론해보자. 주어진 정보로 최선을 다해 추측해본다면 이 값은 $p(t_1|t_1) = 2/3 \times 1 + 1/3 \times 1/2 = 5/6$이다. 마찬가지로 내가 앞면을 한번 본 상황($t_1$)에서 얼마나 많은 다른 사람들이 뒷면을 봤을지($t_2$) 추론되는 빈도는 $p(t_2|t_1) = 2/3 \times 0 + 1/3 \times 1/2 = 1/6$이다.
  
  
Line 45: Line 48:
 나는 동전에 문제가 없다고 확신하므로, 사람들 전체를 보았을 때에 $1/2$은 앞면을 보았고 나머지 $1/2$은 뒷면을 보았다고 기대한다. 나아가 앞면을 본 전자의 사람들이 (군집 모두가 진실을 얘기했다는 가정 하에) 앞면 응답의 빈도를 $5/6$으로 추측할 것이라고 기대한다. 그리고 뒷면을 본 후자의 사람들이 나와 마찬가지로 앞면 응답의 빈도를 $1/2$로 추측할 것이라고 기대한다. 따라서 나는 나는 동전에 문제가 없다고 확신하므로, 사람들 전체를 보았을 때에 $1/2$은 앞면을 보았고 나머지 $1/2$은 뒷면을 보았다고 기대한다. 나아가 앞면을 본 전자의 사람들이 (군집 모두가 진실을 얘기했다는 가정 하에) 앞면 응답의 빈도를 $5/6$으로 추측할 것이라고 기대한다. 그리고 뒷면을 본 후자의 사람들이 나와 마찬가지로 앞면 응답의 빈도를 $1/2$로 추측할 것이라고 기대한다. 따라서 나는
 $$\log \bar{y}_1 = \frac{1}{2} \log \frac{5}{6} + \frac{1}{2} \log \frac{1}{2}$$ $$\log \bar{y}_1 = \frac{1}{2} \log \frac{5}{6} + \frac{1}{2} \log \frac{1}{2}$$
-이라고 기대한다. 이는 앞면의 응답 비율을 각자 예측한 $y_1^r$을 기하평균하는 것이다.+이라고 기대한다. 이는 앞면의 응답 비율을 사람들이 각자 예측한 결과 $y_1^r$을 기하평균하는 것이다. 단, 이 계산은 전지적 시점에서 이루어지는 것이 아니라 내가 아는 범위 안에서 추론하는 것일 뿐이다.
 같은 방식으로 나는 같은 방식으로 나는
 $$\log \bar{y}_2 = \frac{1}{2} \log \frac{1}{6} + \frac{1}{2} \log \frac{1}{2}$$ $$\log \bar{y}_2 = \frac{1}{2} \log \frac{1}{6} + \frac{1}{2} \log \frac{1}{2}$$
Line 71: Line 74:
  
 그럼 내가 앞면이라고 답할 때의 정보 점수 기대값은 그럼 내가 앞면이라고 답할 때의 정보 점수 기대값은
-$$E\left( \log\frac{\bar{x}_1}{\bar{y}_1} \right) = \frac{2}{3} \left( \log 1 - \log\frac{5}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{5}{6}  - \frac{1}{2} \log \frac{1}{2} \right) \right]$$+$$E \left( \log\frac{\bar{x}_1}{\bar{y}_1} \right) = \frac{2}{3} \left( \log 1 - \log\frac{5}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{5}{6}  - \frac{1}{2} \log \frac{1}{2} \right)$$
 이고 내가 뒷면이라고 답할 때의 정보 점수 기대값은 이고 내가 뒷면이라고 답할 때의 정보 점수 기대값은
-$$E\left( \log\frac{\bar{x}_2}{\bar{y}_2} \right) = \frac{2}{3} \left( \log 0 - \log\frac{1}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{1}{6}  - \frac{1}{2} \log \frac{1}{2} \right) \right]$$+$$E \left( \log\frac{\bar{x}_2}{\bar{y}_2} \right) = \frac{2}{3} \left( \log 0 - \log\frac{1}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{1}{6}  - \frac{1}{2} \log \frac{1}{2} \right)$$
 이다. 앞의 경우에 점수가 높다는 것이 명확하므로 나는 앞면이라고 정직하게 답해야 한다. 이다. 앞의 경우에 점수가 높다는 것이 명확하므로 나는 앞면이라고 정직하게 답해야 한다.
  
  • 수학/베이지언_자백약.1483428681.txt.gz
  • Last modified: 2023/09/05 15:46
  • (external edit)