수학:베이지언_자백약

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
Last revisionBoth sides next revision
수학:베이지언_자백약 [2017/01/03 15:58] – [뒷면을 본 사람이 기대하는 보수] admin수학:베이지언_자백약 [2018/07/27 15:25] – [앞면을 본 사람이 기대하는 보수] admin
Line 1: Line 1:
 ======개요====== ======개요======
-주관적인 답만이 가능한 문제에 대해 진실한 응답을 하는 것이 [[수학:내쉬 균형]]이 되게끔 설계된 게임.+주관적인 답만이 가능한 문제에 대해 진실한 응답을 하는 것이 [[수학:내쉬 균형]]이 되게끔 설계된 게임. [[수학:베이즈의 정리]]를 사용해 추론할 경우 자신이 알고 있는 진실의 빈도를 다른 사람들은 과소평가해서 예측할 것으로 기대한다는 점을 이용한다. 예를 들어 내가 가장 좋아하는 화가가 피카소라고 하면 나는 많은 사람들, 예컨대 100명 중 피카소를 꼽는 사람이 적어도 한 명(=나) 있다는 것을 안다. 하지만 나는 `다른 사람들은 이 사실을 몰라서 피카소 애호가의 비율을 1/1000 정도로 과소평가해서 예측할 것'으로 기대한다는 것이다.
  
 +======정식화======
 응답해야 할 문제는 $m$ 개의 문항 중 하나를 고르는 것으로, 진실되게 답할 수도 있고 거짓으로 답할 수도 있다. 응답자 $r$이 가지고 있는 진실을 $t^r = (t_1^r, \ldots, t_m^r)$이라고 하자. 이 때 $t_k^r$은 0 또는 1이며 특정 $k$ 하나에 대해서만 1이어야 한다. 이 사람의 답은 $x^r = (x_1^r, \ldots, x_m^r)$로 적는데, 역시 $x_k^r$은 0 또는 1이며 특정한 $k$ 하나에 대해서만 1이어야 한다. 응답해야 할 문제는 $m$ 개의 문항 중 하나를 고르는 것으로, 진실되게 답할 수도 있고 거짓으로 답할 수도 있다. 응답자 $r$이 가지고 있는 진실을 $t^r = (t_1^r, \ldots, t_m^r)$이라고 하자. 이 때 $t_k^r$은 0 또는 1이며 특정 $k$ 하나에 대해서만 1이어야 한다. 이 사람의 답은 $x^r = (x_1^r, \ldots, x_m^r)$로 적는데, 역시 $x_k^r$은 0 또는 1이며 특정한 $k$ 하나에 대해서만 1이어야 한다.
  
Line 9: Line 10:
  
 이 응답자는 자신이 다음과 같은 보수를 얻게 됨을 안다: 이 응답자는 자신이 다음과 같은 보수를 얻게 됨을 안다:
-$$u^r = \sum_k x_k^r \log \frac{\bar{x}_k}{\bar{y}_k} + \alpha \sum_k \bar{x}_k \log \frac{y_k^r}{\bar{x}_k}$$ +$$u^r = \sum_{k=1}^m x_k^r \log \frac{\bar{x}_k}{\bar{y}_k} + \alpha \sum_{k=1}^m \bar{x}_k \log \frac{y_k^r}{\bar{x}_k}.$$ 
-이다. 이 때에 앞의 항을 정보 점수(information score), 뒤의 항을 예측 점수 (prediction score)라고 부른다. $\alpha$는 0보다 큰 실수이며+이 때에 앞의 항을 정보 점수(information score), 뒤의 항을 예측 점수 (prediction score)라고 부른다. 예측 점수는 쿨백-라이블러 분산(Kullback-Leibler divergence) 형태로 표현되었음에 주의한다. $x_k^r$은 0 아니면 1이므로, 정보 점수에서는 응답자가 고른 하나의 $k$만 기여한다. 
 +$\alpha$는 0보다 큰 실수이며
 $$\bar{x}_k \equiv \lim_{n \rightarrow \infty} \frac{1}{n} \sum_{r=1}^n x_k^r$$ $$\bar{x}_k \equiv \lim_{n \rightarrow \infty} \frac{1}{n} \sum_{r=1}^n x_k^r$$
 $$\log \bar{y}_k \equiv \lim_{n \rightarrow \infty} \frac{1}{n} \sum_{r=1}^n \log y_k^r$$ $$\log \bar{y}_k \equiv \lim_{n \rightarrow \infty} \frac{1}{n} \sum_{r=1}^n \log y_k^r$$
Line 21: Line 23:
  
 ====앞면을 본 사람의 사후확률==== ====앞면을 본 사람의 사후확률====
-내가 던진 결과 앞면을 보았고, 다른 말로 나의 진실이 $t_1 \equiv (1,0)$이라고 생각해보자. 그러면 나는 동전에 앞면만 있다는 심증 쪽으로 더 기울 것이다. 즉 +내가 던진 결과 앞면을 보았고, 다른 말로 나의 진실이 $t_1 \equiv (1,0)$이라고 생각해보자. 그러면 나는 동전에 앞면만 있다는 심증 쪽으로 더 기울 것이다. 즉 [[수학:확률|베이즈의 정리]]에 의해 
-$$p[\omega=(1,0)|t_1]=\frac{p[t_1|\omega=(1,0)] \times p[\omega=(1,0)]}{p[t_1|\omega=(1,0)] \times p[\omega=(1,0)] + p[t_1|\omega=(1/2,1/2)] \times p[\omega=(1/2,1/2)]} = \frac{1/2 \times 1/2}{1 \times 1/2 + 1/2 \times 1/2} = \frac{2}{3}$$+\begin{eqnarray*} 
 +p[\omega=(1,0)|t_1]&=&\frac{p[t_1|\omega=(1,0)] \times p[\omega=(1,0)]}{p[t_1|\omega=(1,0)] \times p[\omega=(1,0)] + p[t_1|\omega=(1/2,1/2)] \times p[\omega=(1/2,1/2)]}\\&=\frac{1 \times 1/2}{1 \times 1/2 + 1/2 \times 1/2} = \frac{2}{3} 
 +\end{eqnarray*}
 이고 따라서 $p[\omega=(1/2,1/2)|t_1]=1/3$이라는 것이 나의 사후확률이다. 이고 따라서 $p[\omega=(1/2,1/2)|t_1]=1/3$이라는 것이 나의 사후확률이다.
  
 모든 사람이 이 동전을 던진 후 진실을 응답한다고 가정해보자. 그러면 내가 생각했을 때, 가능성은 두 가지이다. 먼저 $2/3$의 확률로 $\omega=(1,0)$이어서 $(\bar{x}_1, \bar{x}_2) = (\omega_1, \omega_2) = (1,0)$일 것이다. 혹은 $1/3$의 확률로 $\omega=(1/2,1/2)$이어서 $(\bar{x}_1, \bar{x}_2) = (\omega_1, \omega_2) = (1/2,1/2)$일 것이다. 모든 사람이 이 동전을 던진 후 진실을 응답한다고 가정해보자. 그러면 내가 생각했을 때, 가능성은 두 가지이다. 먼저 $2/3$의 확률로 $\omega=(1,0)$이어서 $(\bar{x}_1, \bar{x}_2) = (\omega_1, \omega_2) = (1,0)$일 것이다. 혹은 $1/3$의 확률로 $\omega=(1/2,1/2)$이어서 $(\bar{x}_1, \bar{x}_2) = (\omega_1, \omega_2) = (1/2,1/2)$일 것이다.
  
-이렇게 내가 앞면을 한번 본 상황($t_1$)에서 얼마나 많은 다른 사람들이 앞면을 볼지($t_1$) 예측되는 빈도를 $p(t_1|t_1)$이라고 하자. 이 값은 $p(t_1|t_1) = 2/3 \times 1 + 1/3 \times 1/2 = 5/6$이다. 마찬가지로 내가 앞면을 한번 본 상황($t_1$)에서 얼마나 많은 다른 사람들이 뒷면을 봤을지($t_2$) 예측되는 빈도는 $p(t_2|t_1) = 2/3 \times 0 + 1/3 \times 1/2 = 1/6$이다.+이렇게 내가 앞면을 한번 본 상황($t_1$)에서 얼마나 많은 다른 사람들이 앞면을 볼지($t_1$) 예측되는 빈도 $p(t_1|t_1)$를 추론해보자. 주어진 정보로 최선을 다해 추측해본다면 이 값은 $p(t_1|t_1) = 2/3 \times 1 + 1/3 \times 1/2 = 5/6$이다. 마찬가지로 내가 앞면을 한번 본 상황($t_1$)에서 얼마나 많은 다른 사람들이 뒷면을 봤을지($t_2$) 추론되는 빈도는 $p(t_2|t_1) = 2/3 \times 0 + 1/3 \times 1/2 = 1/6$이다.
  
  
Line 42: Line 46:
 ====뒷면을 본 사람이 기대하는 보수==== ====뒷면을 본 사람이 기대하는 보수====
  
-나는 동전에 문제가 없다고 확신하므로, 사람들 전체를 보았을 때에 $1/2$은 앞면을 보았고 나머지 $1/2$은 뒷면을 보았다고 기대한다. 나아가 앞면을 본 전자의 사람들이 (군집 모두가 진실을 얘기했다는 가정 하에) 앞면의 빈도를 $5/6$으로 추측할 것이라고 기대한다. 그리고 뒷면을 본 후자의 사람들이 나와 마찬가지로 앞면의 빈도를 $1/2$로 추측할 것이라고 기대한다. 따라서 나는+나는 동전에 문제가 없다고 확신하므로, 사람들 전체를 보았을 때에 $1/2$은 앞면을 보았고 나머지 $1/2$은 뒷면을 보았다고 기대한다. 나아가 앞면을 본 전자의 사람들이 (군집 모두가 진실을 얘기했다는 가정 하에) 앞면 응답의 빈도를 $5/6$으로 추측할 것이라고 기대한다. 그리고 뒷면을 본 후자의 사람들이 나와 마찬가지로 앞면 응답의 빈도를 $1/2$로 추측할 것이라고 기대한다. 따라서 나는
 $$\log \bar{y}_1 = \frac{1}{2} \log \frac{5}{6} + \frac{1}{2} \log \frac{1}{2}$$ $$\log \bar{y}_1 = \frac{1}{2} \log \frac{5}{6} + \frac{1}{2} \log \frac{1}{2}$$
-이라고 기대한다. 이는 앞면의 응답 비율을 각자 예측한 $y_1^r$을 기하평균하는 것이다.+이라고 기대한다. 이는 앞면의 응답 비율을 사람들이 각자 예측한 결과 $y_1^r$을 기하평균하는 것이다. 단, 이 계산은 전지적 시점에서 이루어지는 것이 아니라 내가 아는 범위 안에서 추론하는 것일 뿐이다.
 같은 방식으로 나는 같은 방식으로 나는
 $$\log \bar{y}_2 = \frac{1}{2} \log \frac{1}{6} + \frac{1}{2} \log \frac{1}{2}$$ $$\log \bar{y}_2 = \frac{1}{2} \log \frac{1}{6} + \frac{1}{2} \log \frac{1}{2}$$
Line 70: Line 74:
  
 그럼 내가 앞면이라고 답할 때의 정보 점수 기대값은 그럼 내가 앞면이라고 답할 때의 정보 점수 기대값은
-$$E\left( \log\frac{\bar{x}_1}{\bar{y}_1} \right) = \frac{2}{3} \left( \log 1 - \log\frac{5}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{5}{6}  - \frac{1}{2} \log \frac{1}{2} \right) \right]$$+$$E \left( \log\frac{\bar{x}_1}{\bar{y}_1} \right) = \frac{2}{3} \left( \log 1 - \log\frac{5}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{5}{6}  - \frac{1}{2} \log \frac{1}{2} \right)$$
 이고 내가 뒷면이라고 답할 때의 정보 점수 기대값은 이고 내가 뒷면이라고 답할 때의 정보 점수 기대값은
-$$E\left( \log\frac{\bar{x}_2}{\bar{y}_2} \right) = \frac{2}{3} \left( \log 0 - \log\frac{1}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{1}{6}  - \frac{1}{2} \log \frac{1}{2} \right) \right]$$+$$E \left( \log\frac{\bar{x}_2}{\bar{y}_2} \right) = \frac{2}{3} \left( \log 0 - \log\frac{1}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{1}{6}  - \frac{1}{2} \log \frac{1}{2} \right)$$
 이다. 앞의 경우에 점수가 높다는 것이 명확하므로 나는 앞면이라고 정직하게 답해야 한다. 이다. 앞의 경우에 점수가 높다는 것이 명확하므로 나는 앞면이라고 정직하게 답해야 한다.
  
  • 수학/베이지언_자백약.txt
  • Last modified: 2023/09/05 15:46
  • by 127.0.0.1