728x90
해당 게시물은 "혁펜하임의 AI DEEP DIVE"를 수강하고 작성되었습니다.
우선 베이즈 정리에 대해 잠시 상기하고 넘어가자.
- $P(A|B)=\frac{P(A \cap B)}{P(B)}=\frac{P(B|A)P(A)}{P(B)}$
위 수식을 $z$를 보고 $x$를 알고 싶은 상황에 대입해 보면,
- $P(x|z)=\frac{P(z|x)P(x)}{P(z)}$ 이다.
- 여기서 $P(z|x)$는 MLE 게시물에서 다뤘던 likelihood이다.
- $P(x|z)$가 posterior distribution이다.
MLE는 likelihood를 최대화 하겠다는 것이라면,
MAP는 posterior disribution을 최대화 하겠다는 것이다.
MAP는 다음과 같은 수식으로 나타낼 수 있다.
- $\widehat{x}=argmax_x{P(z|x)P(x)}$
MLE와 비교하면 $P(x)$가 추가되었는데, 이는 $x$의 분포를 사전에 알고 있다는 의미이다. 즉 사전 정보를 제공해 준다는 것이다.
이 $P(x)$를 사전 분포 (prior distribution)이라고 부른다.
728x90
'수학' 카테고리의 다른 글
Entropy, Cross-Engropy, KL-divergence, Mutual information (0) | 2024.08.31 |
---|---|
최대 우도 추정 (MLE : Maximum Likelihood Estimation) (0) | 2024.08.30 |
균등 분포와 정규 분포 (0) | 2024.08.30 |
평균과 분산에 대하여 (0) | 2024.08.29 |
확률 및 랜덤 변수 (0) | 2024.08.29 |