This is an old revision of the document!
개요
주관적인 답만이 가능한 문제에 대해 진실한 응답을 하는 것이 내쉬 균형이 되게끔 설계된 게임. 베이즈의 정리를 사용해 추론할 경우 자신이 알고 있는 진실의 빈도를 다른 사람들은 과소평가해서 예측할 것으로 기대한다는 점을 이용한다.
응답해야 할 문제는 $m$ 개의 문항 중 하나를 고르는 것으로, 진실되게 답할 수도 있고 거짓으로 답할 수도 있다. 응답자 $r$이 가지고 있는 진실을 $t^r = (t_1^r, \ldots, t_m^r)$이라고 하자. 이 때 $t_k^r$은 0 또는 1이며 특정 $k$ 하나에 대해서만 1이어야 한다. 이 사람의 답은 $x^r = (x_1^r, \ldots, x_m^r)$로 적는데, 역시 $x_k^r$은 0 또는 1이며 특정한 $k$ 하나에 대해서만 1이어야 한다.
이 `베이지언 자백약'을 쓰기 위해서는 위의 답 $x^r$과 함께, `전체 군집을 보았을 때에 답안의 분포가 어떻게 될지'를 함께 답해야 한다. 이는 $y^r = (y_1^r, \ldots, y_m^r)$로 표현되며, $y_k^r$은 음이 아닌 실수여서 $k$에 대한 전체 합이 1로 정규화되어야 한다.
이 방법이 작동하기 위해서는 개인의 응답이 전체 통계에 영향을 미치지 않을 만큼 응답자의 수 $n$이 충분히 많아야 한다. 또한 가정상 초기에 모든 응답자는 군집내 분포 $\omega = (\omega_1, \ldots, \omega_m)$에 대해 동일한 사전확률(prior) $p(\omega)$를 가진 채 시작하는데, 자신이 가지고 있는 진실에 비추어보고 베이즈의 정리를 따라 각자 나름대로의 사후확률 (posterior) $p(\omega| t^r)$로 고쳐나간다. 이 때 같은 진실을 경험한 사람은 같은 분포를 추론한다고 가정한다. 즉 $t^r=t^s$이면 그리고 오직 그 때에만 $p(\omega|t^r) = p(\omega|t^s)$이다.
이 응답자는 자신이 다음과 같은 보수를 얻게 됨을 안다: $$u^r = \sum_{k=1}^m x_k^r \log \frac{\bar{x}_k}{\bar{y}_k} + \alpha \sum_{k=1}^m \bar{x}_k \log \frac{y_k^r}{\bar{x}_k}$$ 이다. 이 때에 앞의 항을 정보 점수(information score), 뒤의 항을 예측 점수 (prediction score)라고 부른다. $x_k^r$은 0 아니면 1이므로, 정보 점수에서는 응답자가 고른 하나의 $k$만 기여한다. $\alpha$는 0보다 큰 실수이며 $$\bar{x}_k \equiv \lim_{n \rightarrow \infty} \frac{1}{n} \sum_{r=1}^n x_k^r$$ $$\log \bar{y}_k \equiv \lim_{n \rightarrow \infty} \frac{1}{n} \sum_{r=1}^n \log y_k^r$$ 로 정의된다. 다른 사람들이 모두 진실을 보고한다는 가정 하에서 보수의 기대값을 최대화하기 위해 응답자 $r$은 자신도 역시 진실된 $x^r = t^r$을 답하고 자신이 예측하는 바 $y^r$까지도 성실히 답해야 한다는 결론에 도달한다. 이런 의미에서 진실을 말하는 것은 베이지언 내쉬 균형이며, 이 균형이 다른 어떤 균형과 비교해서도 모든 응답자에게 높은 보수를 준다.
$\alpha = 1$인 특별한 경우에 이 게임은 영합(zero-sum)으로서 답안의 실제 분포를 얼마나 잘 예측하느냐에 따라 응답자를 줄세우게 된다.
예제
$m=2$여서 두 문항 중 하나를 고르면 되는 문제를 생각해보자. 예컨대 어떤 동전 하나가 있어서 각자가 남들 몰래 독립적으로 이 동전을 던진 후 그 결과를 속으로 기억하고 있다고 하자. 이 동전에서 앞면이 나올 확률은 명확히 알려지지 않아서, 처음에 사람들이 공통적으로 알고 있는 바는 이 동전이 보통의 것일 확률이 $1/2$, 앞면만 있는 것일 확률이 $1/2$이라는 것이다. 즉, 사전확률은 $p[\omega = (1/2,1/2)] = 1/2$이고 $p[\omega = (1,0)] = 1/2$이다.
앞면을 본 사람의 사후확률
내가 던진 결과 앞면을 보았고, 다른 말로 나의 진실이 $t_1 \equiv (1,0)$이라고 생각해보자. 그러면 나는 동전에 앞면만 있다는 심증 쪽으로 더 기울 것이다. 즉 $$p[\omega=(1,0)|t_1]=\frac{p[t_1|\omega=(1,0)] \times p[\omega=(1,0)]}{p[t_1|\omega=(1,0)] \times p[\omega=(1,0)] + p[t_1|\omega=(1/2,1/2)] \times p[\omega=(1/2,1/2)]} = \frac{1/2 \times 1/2}{1 \times 1/2 + 1/2 \times 1/2} = \frac{2}{3}$$ 이고 따라서 $p[\omega=(1/2,1/2)|t_1]=1/3$이라는 것이 나의 사후확률이다.
모든 사람이 이 동전을 던진 후 진실을 응답한다고 가정해보자. 그러면 내가 생각했을 때, 가능성은 두 가지이다. 먼저 $2/3$의 확률로 $\omega=(1,0)$이어서 $(\bar{x}_1, \bar{x}_2) = (\omega_1, \omega_2) = (1,0)$일 것이다. 혹은 $1/3$의 확률로 $\omega=(1/2,1/2)$이어서 $(\bar{x}_1, \bar{x}_2) = (\omega_1, \omega_2) = (1/2,1/2)$일 것이다.
이렇게 내가 앞면을 한번 본 상황($t_1$)에서 얼마나 많은 다른 사람들이 앞면을 볼지($t_1$) 예측되는 빈도 $p(t_1|t_1)$를 추론해보자. 주어진 정보로 최선을 다해 추측해본다면 이 값은 $p(t_1|t_1) = 2/3 \times 1 + 1/3 \times 1/2 = 5/6$이다. 마찬가지로 내가 앞면을 한번 본 상황($t_1$)에서 얼마나 많은 다른 사람들이 뒷면을 봤을지($t_2$) 추론되는 빈도는 $p(t_2|t_1) = 2/3 \times 0 + 1/3 \times 1/2 = 1/6$이다.
뒷면을 본 사람의 사후확률
내가 동전을 던진 결과 뒷면을 보았고, 다른 말로 나의 진실이 $t_2 \equiv (0,1)$이라고 생각해보자. 그러면 동전에 뒷면이 있다는 사실을 확신해도 된다. 즉 $p[\omega=(1,0)|t_2]=1$이고 $p[\omega=(1/2,1/2)|t_2]=0$이 나의 사후확률이다.
모든 사람이 이 동전을 던진 후 진실을 응답한다고 가정해보자. 그러면 내가 생각했을 때, 사람들의 응답은 $\omega$를 따라 나와서 $(\bar{x}_1, \bar{x}_2) = (\omega_1, \omega_2) = (1/2,1/2)$일 것이다.
이렇게 내가 뒷면을 한번 본 상황($t_2$)에서는 동전에 앞면과 뒷면이 있다는 것이 확실하므로, 다른 사람이 앞면을 봤을 빈도와 뒷면을 봤을 빈도 모두 $p(t_1|t_2) = p(t_2|t_2) = 1/2$이다.
뒷면을 본 사람이 기대하는 보수
나는 동전에 문제가 없다고 확신하므로, 사람들 전체를 보았을 때에 $1/2$은 앞면을 보았고 나머지 $1/2$은 뒷면을 보았다고 기대한다. 나아가 앞면을 본 전자의 사람들이 (군집 모두가 진실을 얘기했다는 가정 하에) 앞면 응답의 빈도를 $5/6$으로 추측할 것이라고 기대한다. 그리고 뒷면을 본 후자의 사람들이 나와 마찬가지로 앞면 응답의 빈도를 $1/2$로 추측할 것이라고 기대한다. 따라서 나는 $$\log \bar{y}_1 = \frac{1}{2} \log \frac{5}{6} + \frac{1}{2} \log \frac{1}{2}$$ 이라고 기대한다. 이는 앞면의 응답 비율을 각자 예측한 $y_1^r$을 기하평균하는 것이다. 같은 방식으로 나는 $$\log \bar{y}_2 = \frac{1}{2} \log \frac{1}{6} + \frac{1}{2} \log \frac{1}{2}$$ 이라고 기대한다.
그럼 내가 앞면이라고 답할 때의 정보 점수 기대값은 $$E\left( \log\frac{\bar{x}_1}{\bar{y}_1} \right) = \log\frac{1}{2} - \left[ \frac{1}{2} \log \frac{5}{6} + \frac{1}{2} \log \frac{1}{2} \right]$$ 이고 내가 뒷면이라고 답할 때의 정보 점수 기대값은 $$E\left( \log\frac{\bar{x}_2}{\bar{y}_2} \right) = \log\frac{1}{2} - \left[ \frac{1}{2} \log \frac{1}{6} + \frac{1}{2} \log \frac{1}{2} \right]$$ 이다. 나중의 값이 더 크다는 것이 명확하므로 나는 뒷면이라고 진실을 답해야 할 것이다.
이번에는 예측 점수 기대값을 보면, $$ E\left[ \left. \sum_{k=1}^2 \bar{x}_k \log \frac{y_k}{\bar{x}_k} \right| t_2 \right] = \frac{1}{2} \log y_1 + \frac{1}{2} \log y_2 - \frac{1}{2} \log \frac{1}{2} - \frac{1}{2} \log \frac{1}{2}$$ 이고 $y_1 + y_2 = 1$이다. 따라서 이 값은 $y_1 = y_2 = 1/2$일 때 최대화된다. 이는 나의 예측을 정직하게 보고하는 것에 해당한다.
앞면을 본 사람이 기대하는 보수
나는 여전히 동전에 대해 확신하지 못한다. 즉 $2/3$의 확률로는 동전에 앞면만 있어서 모두가 앞면만 볼 테니 모두가 나처럼 앞면의 빈도를 $5/6$이라고 예측해서 $$\log \bar{y}_1 = \log \frac{5}{6}$$ $$\log \bar{y}_2 = \log \frac{1}{6}$$ 일 것이고 $1/3$의 확률로는 동전에 문제가 없어서 $$\log \bar{y}_1 = \frac{1}{2} \log \frac{5}{6} + \frac{1}{2} \log \frac{1}{2}$$ $$\log \bar{y}_2 = \frac{1}{2} \log \frac{1}{6} + \frac{1}{2} \log \frac{1}{2}$$ 일 것이라고 기대한다.
그럼 내가 앞면이라고 답할 때의 정보 점수 기대값은 $$E\left( \log\frac{\bar{x}_1}{\bar{y}_1} \right) = \frac{2}{3} \left( \log 1 - \log\frac{5}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{5}{6} - \frac{1}{2} \log \frac{1}{2} \right) \right]$$ 이고 내가 뒷면이라고 답할 때의 정보 점수 기대값은 $$E\left( \log\frac{\bar{x}_2}{\bar{y}_2} \right) = \frac{2}{3} \left( \log 0 - \log\frac{1}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{1}{6} - \frac{1}{2} \log \frac{1}{2} \right) \right]$$ 이다. 앞의 경우에 점수가 높다는 것이 명확하므로 나는 앞면이라고 정직하게 답해야 한다.
예측 점수 기대값을 보면, $$ E\left[ \left. \sum_{k=1}^2 \bar{x}_k \log \frac{y_k}{\bar{x}_k} \right| t_1 \right] = \frac{1}{3} \left( \frac{1}{2} \log y_1 + \frac{1}{2} \log y_2 - \frac{1}{2} \log \frac{1}{2} - \frac{1}{2} \log \frac{1}{2} \right) + \frac{2}{3} \left( 1 \log y_1 \right) = \frac{1}{6} \log 4y_1^5 y_2$$ 이고 $y_1 + y_2 = 1$이다. 따라서 이 값은 $y_1 = 5/6$이고 $y_2 = 1/6$일 때 최대화된다. 이는 나의 예측을 정직하게 보고하는 것에 해당한다.
함께 보기
참고문헌
- D. Prelec, A Bayesian Truth Serum for Subjective Data, Science 306, 462–466 (2004).