728x90
해당 게시물은 "혁펜하임의 AI DEEP DIVE"를 수강하고 작성하였습니다.
딥러닝에서 Cross Entropy, Softmax, KL-Divergence 등.. 로그함수가 정말 많이 사용된다.
그렇다면 로그 함수는 무엇인가에 대해 알아보자.
로그함수의 본질적 접근
로그함수는 $log_ab$ 와 같이 나타내는데,
그 근본적인 의미는 $a$(밑)를 몇 승 해야 $b$(진수)가 나오냐는 것이다.
이를 그래프로 나타내면 아래와 같다.
로그함수의 성질
로그함수의 대표적인 성질을 리마인드 해보자.
- $log_axy=log_ax + log_ay$
- $log_ax^n = nlog_ax$
- $log_{a^m}x=\frac{1}{m}log_ax$
- $log_ab=\frac{log_cb}{log_ca}$
- $log_ab=\frac{1}{log_ba}$
- $a^{log_ax}=x$
- $a^{log_bc}=c^{log_ba}$
참고 : 대학수학부터는 일반적으로 $log$ 라고 표기하면 밑이 $e$인 경우이다.
728x90
'수학' 카테고리의 다른 글
미분과 도함수에 대하여 (2) | 2024.08.28 |
---|---|
극한과 입실론-델타 논법에 대하여 (2) | 2024.08.28 |
transpose와 dot product에 대하여 (4) | 2024.08.28 |
백터와 행렬에 대하여 (1) | 2024.08.28 |
함수에 대하여 (1) | 2024.08.27 |