pullwall
Well done! 코딩
pullwall
전체 방문자
오늘
어제
  • 분류 전체보기 (151)
    • 개발환경 (2)
    • java study (21)
    • 백준 단계별 (51)
    • 알고리즘 (3)
    • AI (43)
    • 클라우드 (3)
      • Kubernetes in Google (3)
    • 논문 (5)
    • 리눅스 (1)
    • AWS (4)
    • 수학 (15)
    • 기타 (1)

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • 논문리뷰
  • Ai
  • LLM
  • 알고리즘
  • 정렬알고리즘
  • 자바독학
  • 단계별
  • Java
  • 자바
  • pytorch
  • 정렬
  • Kubernetes
  • 백준 단계별
  • 선택정렬
  • 백준
  • 쿠버네티스
  • AWS
  • 수학
  • Google
  • dataset

최근 댓글

최근 글

티스토리

hELLO · Designed By 정상우.
pullwall

Well done! 코딩

Overfitting, Data augmentation
AI

Overfitting, Data augmentation

2024. 9. 9. 20:52
728x90
해당 게시물은 "혁펜하임의 AI DEEP DIVE"를 수강하고 작성되었습니다.

https://www.freecodecamp.org/news/what-is-overfitting-machine-learning/

 

층을 깊게 쌓아 loss 함수를 꼬불꼬불하게 만들면 training data에 대해서는 성능이 좋지만, 보지 못한 데이터가 들어왔을 때 (Test data)는 잘 맞추지 못하게 된다.

 

이를 어떻게 해결할까? 

  1. 모델이 다시 입력, 출력관의 관계를 단순하게 생각하도록 한다. (Dropout)
  2. Data Augmentation

Data Augmentation은 학습 데이터가 너무 적어서 생기는 overfitting 문제를 해결해준다.

 

Data Augmentation은 데이터를 변조, 변형시켜서 데이터 우려먹기가 가능하다!

728x90

'AI' 카테고리의 다른 글

Regularization (Overfitting 방지 방법)  (0) 2024.09.10
Overfitting 방지를 위한 Dropout  (1) 2024.09.09
Loss Landscape, Skip connection  (0) 2024.09.09
Batch Normalization, Layer Normalization, Vanishing Gradient 해결 방안 정리  (0) 2024.09.09
ReLU (Rectified Linear Unit)  (0) 2024.09.06
    'AI' 카테고리의 다른 글
    • Regularization (Overfitting 방지 방법)
    • Overfitting 방지를 위한 Dropout
    • Loss Landscape, Skip connection
    • Batch Normalization, Layer Normalization, Vanishing Gradient 해결 방안 정리
    pullwall
    pullwall

    티스토리툴바