Differences
This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revisionLast revisionBoth sides next revision | ||
수학:베이지언_자백약 [2017/01/03 16:10] – [개요] admin | 수학:베이지언_자백약 [2018/07/27 15:25] – [앞면을 본 사람이 기대하는 보수] admin | ||
---|---|---|---|
Line 1: | Line 1: | ||
======개요====== | ======개요====== | ||
- | 주관적인 답만이 가능한 문제에 대해 진실한 응답을 하는 것이 [[수학: | + | 주관적인 답만이 가능한 문제에 대해 진실한 응답을 하는 것이 [[수학: |
+ | ======정식화====== | ||
응답해야 할 문제는 $m$ 개의 문항 중 하나를 고르는 것으로, 진실되게 답할 수도 있고 거짓으로 답할 수도 있다. 응답자 $r$이 가지고 있는 진실을 $t^r = (t_1^r, \ldots, t_m^r)$이라고 하자. 이 때 $t_k^r$은 0 또는 1이며 특정 $k$ 하나에 대해서만 1이어야 한다. 이 사람의 답은 $x^r = (x_1^r, \ldots, x_m^r)$로 적는데, 역시 $x_k^r$은 0 또는 1이며 특정한 $k$ 하나에 대해서만 1이어야 한다. | 응답해야 할 문제는 $m$ 개의 문항 중 하나를 고르는 것으로, 진실되게 답할 수도 있고 거짓으로 답할 수도 있다. 응답자 $r$이 가지고 있는 진실을 $t^r = (t_1^r, \ldots, t_m^r)$이라고 하자. 이 때 $t_k^r$은 0 또는 1이며 특정 $k$ 하나에 대해서만 1이어야 한다. 이 사람의 답은 $x^r = (x_1^r, \ldots, x_m^r)$로 적는데, 역시 $x_k^r$은 0 또는 1이며 특정한 $k$ 하나에 대해서만 1이어야 한다. | ||
Line 9: | Line 10: | ||
이 응답자는 자신이 다음과 같은 보수를 얻게 됨을 안다: | 이 응답자는 자신이 다음과 같은 보수를 얻게 됨을 안다: | ||
- | $$u^r = \sum_{k=1}^m x_k^r \log \frac{\bar{x}_k}{\bar{y}_k} + \alpha \sum_{k=1}^m \bar{x}_k \log \frac{y_k^r}{\bar{x}_k}$$ | + | $$u^r = \sum_{k=1}^m x_k^r \log \frac{\bar{x}_k}{\bar{y}_k} + \alpha \sum_{k=1}^m \bar{x}_k \log \frac{y_k^r}{\bar{x}_k}.$$ |
- | 이다. | + | 이 때에 앞의 항을 정보 점수(information score), 뒤의 항을 예측 점수 (prediction score)라고 부른다. 예측 점수는 쿨백-라이블러 분산(Kullback-Leibler divergence) 형태로 표현되었음에 주의한다. $x_k^r$은 0 아니면 1이므로, 정보 점수에서는 응답자가 고른 하나의 $k$만 기여한다. |
$\alpha$는 0보다 큰 실수이며 | $\alpha$는 0보다 큰 실수이며 | ||
$$\bar{x}_k \equiv \lim_{n \rightarrow \infty} \frac{1}{n} \sum_{r=1}^n x_k^r$$ | $$\bar{x}_k \equiv \lim_{n \rightarrow \infty} \frac{1}{n} \sum_{r=1}^n x_k^r$$ | ||
Line 22: | Line 23: | ||
====앞면을 본 사람의 사후확률==== | ====앞면을 본 사람의 사후확률==== | ||
- | 내가 던진 결과 앞면을 보았고, 다른 말로 나의 진실이 $t_1 \equiv (1, | + | 내가 던진 결과 앞면을 보았고, 다른 말로 나의 진실이 $t_1 \equiv (1, |
- | $$p[\omega=(1, | + | \begin{eqnarray*} |
+ | p[\omega=(1, | ||
+ | \end{eqnarray*} | ||
이고 따라서 $p[\omega=(1/ | 이고 따라서 $p[\omega=(1/ | ||
Line 45: | Line 48: | ||
나는 동전에 문제가 없다고 확신하므로, | 나는 동전에 문제가 없다고 확신하므로, | ||
$$\log \bar{y}_1 = \frac{1}{2} \log \frac{5}{6} + \frac{1}{2} \log \frac{1}{2}$$ | $$\log \bar{y}_1 = \frac{1}{2} \log \frac{5}{6} + \frac{1}{2} \log \frac{1}{2}$$ | ||
- | 이라고 기대한다. 이는 앞면의 응답 비율을 각자 예측한 $y_1^r$을 기하평균하는 것이다. | + | 이라고 기대한다. 이는 앞면의 응답 비율을 |
같은 방식으로 나는 | 같은 방식으로 나는 | ||
$$\log \bar{y}_2 = \frac{1}{2} \log \frac{1}{6} + \frac{1}{2} \log \frac{1}{2}$$ | $$\log \bar{y}_2 = \frac{1}{2} \log \frac{1}{6} + \frac{1}{2} \log \frac{1}{2}$$ | ||
Line 71: | Line 74: | ||
그럼 내가 앞면이라고 답할 때의 정보 점수 기대값은 | 그럼 내가 앞면이라고 답할 때의 정보 점수 기대값은 | ||
- | $$E\left( \log\frac{\bar{x}_1}{\bar{y}_1} \right) = \frac{2}{3} \left( \log 1 - \log\frac{5}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{5}{6} | + | $$E \left( \log\frac{\bar{x}_1}{\bar{y}_1} \right) = \frac{2}{3} \left( \log 1 - \log\frac{5}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{5}{6} |
이고 내가 뒷면이라고 답할 때의 정보 점수 기대값은 | 이고 내가 뒷면이라고 답할 때의 정보 점수 기대값은 | ||
- | $$E\left( \log\frac{\bar{x}_2}{\bar{y}_2} \right) = \frac{2}{3} \left( \log 0 - \log\frac{1}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{1}{6} | + | $$E \left( \log\frac{\bar{x}_2}{\bar{y}_2} \right) = \frac{2}{3} \left( \log 0 - \log\frac{1}{6} \right) + \frac{1}{3} \left( \log \frac{1}{2} - \frac{1}{2} \log \frac{1}{6} |
이다. 앞의 경우에 점수가 높다는 것이 명확하므로 나는 앞면이라고 정직하게 답해야 한다. | 이다. 앞의 경우에 점수가 높다는 것이 명확하므로 나는 앞면이라고 정직하게 답해야 한다. | ||