728x90
해당 게시물은 "혁펜하임의 AI DEEP DIVE"를 수강하고 작성되었습니다.
우선 베이즈 정리에 대해 잠시 상기하고 넘어가자.
- P(A|B)=P(A∩B)P(B)=P(B|A)P(A)P(B)
위 수식을 z를 보고 x를 알고 싶은 상황에 대입해 보면,
- P(x|z)=P(z|x)P(x)P(z) 이다.
- 여기서 P(z|x)는 MLE 게시물에서 다뤘던 likelihood이다.
- P(x|z)가 posterior distribution이다.
MLE는 likelihood를 최대화 하겠다는 것이라면,
MAP는 posterior disribution을 최대화 하겠다는 것이다.
MAP는 다음과 같은 수식으로 나타낼 수 있다.
- ˆx=argmaxxP(z|x)P(x)
MLE와 비교하면 P(x)가 추가되었는데, 이는 x의 분포를 사전에 알고 있다는 의미이다. 즉 사전 정보를 제공해 준다는 것이다.
이 P(x)를 사전 분포 (prior distribution)이라고 부른다.
728x90
'수학' 카테고리의 다른 글
Entropy, Cross-Engropy, KL-divergence, Mutual information (0) | 2024.08.31 |
---|---|
최대 우도 추정 (MLE : Maximum Likelihood Estimation) (0) | 2024.08.30 |
균등 분포와 정규 분포 (0) | 2024.08.30 |
평균과 분산에 대하여 (0) | 2024.08.29 |
확률 및 랜덤 변수 (0) | 2024.08.29 |