pullwall
Well done! 코딩
pullwall
전체 방문자
오늘
어제
  • 분류 전체보기 (151)
    • 개발환경 (2)
    • java study (21)
    • 백준 단계별 (51)
    • 알고리즘 (3)
    • AI (43)
    • 클라우드 (3)
      • Kubernetes in Google (3)
    • 논문 (5)
    • 리눅스 (1)
    • AWS (4)
    • 수학 (15)
    • 기타 (1)

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • 논문리뷰
  • 자바독학
  • AWS
  • 정렬
  • Google
  • LLM
  • Java
  • 정렬알고리즘
  • 알고리즘
  • 자바
  • Kubernetes
  • 선택정렬
  • 쿠버네티스
  • dataset
  • 단계별
  • pytorch
  • 백준
  • 백준 단계별
  • 수학
  • Ai

최근 댓글

최근 글

티스토리

hELLO · Designed By 정상우.
pullwall

Well done! 코딩

SGD (Stochastic Gradient Descent)
AI

SGD (Stochastic Gradient Descent)

2024. 9. 1. 16:09
728x90
해당 게시물은 "혁펜하임의 AI DEEP DIVE"를 수강하고 작성되었습니다.

 

https://stats.stackexchange.com/questions/599698/what-does-the-ellipse-in-gradient-descent-describes

 

2차식인 loss fuction의 Gradient Descent 과정을 contour plot(등고선 그래프)으로 그려보면 위 그림과 같다.

 


 

SGD는 데이터 중 임의로 하나만 뽑아서 loss fucntion을 만드는 과정을 데이터의 개수가 소진될 때 까지 반복한다. (비복원추출)

데이터를 다 뽑았다면, 다시 주머니에 전부 넣고 처음부터 이 과정을 반복한다.

 

데이터 하나만 보고 방향을 빠르게 결정하는 방법이다 (연산 cost가 적다).

 

해당 방법은 local minimum을 찾는 문제를 해결할 수 있는 가능성이 있다.

 

 

 

728x90

'AI' 카테고리의 다른 글

파라미터 (parameter) vs 하이퍼파라미터 (hyperparameter)  (0) 2024.09.01
mini-batch SGD  (0) 2024.09.01
가중치 초기화 기법 (Weight Initialization)  (0) 2024.09.01
경사하강법 (Gradient descent)  (0) 2024.08.31
선형 회귀 (Linear Regression)  (2) 2024.08.31
    'AI' 카테고리의 다른 글
    • 파라미터 (parameter) vs 하이퍼파라미터 (hyperparameter)
    • mini-batch SGD
    • 가중치 초기화 기법 (Weight Initialization)
    • 경사하강법 (Gradient descent)
    pullwall
    pullwall

    티스토리툴바