딥러닝 기초 -3 딥러닝 학습의 문제점 (GD vs SGD)
2022. 1. 16. 16:07ㆍ머신러닝/딥러닝
GD vs SGD(Stochastic Gradient Descent)
GD(Gradient Descent) 는 시작 지점에서 기울기의 반대 방향으로 하강하면서 손실 함수(loss function)를 최소화하는 지점을 찾기 위한 가장 직관적인 방법입니다. 이처럼 전체 데이터 셋을 가지고 학습하게 되면 안정적이긴 하지만, 계산량과 학습 비용이 많아지게 됩니다.
이때 전체 데이터 셋이 아닌, 무작위로 뽑은 데이터들에 대한 Gradient Descent를 진행하고, 이를 반복하며 정확도를 찾아 나가는 것을 SGD(Stochastic Gradient Descent)라고 합니다.
이번 실습에서는 동일한 모델 생성 및 학습을 통하여 두 최적화 기법을 비교해보도록 하겠습니다.
데이터셋은 IMDB 영화 리뷰 데이터 셋을 사용합니다. 해당 데이터셋은 훈련용 데이터 25,000개와 테스트용 데이터 25,000개로 이루어져 있으며, 레이블은 긍정/부정으로 두 가지입니다. 이때 긍정은 1, 부정은 0으로 표시되어 있습니다. 우리의 목표는 전처리된 영화 리뷰 데이터를 가지고 그 리뷰가 긍정적인지 혹은 부정적인지를 예측하는 것입니다.
728x90
'머신러닝 > 딥러닝' 카테고리의 다른 글
딥러닝 기초 -3 딥러닝의 문제점 (Adagrad, RMSprop, Adam 최적화(optimize) 알고리즘) (0) | 2022.01.16 |
---|---|
딥러닝 기초 -3 딥러닝의 문제점(모멘텀(Momentum)) (0) | 2022.01.16 |
딥러닝 기초 -1 다층 퍼셉트론 (0) | 2022.01.15 |
딥러닝 기초 1 - 비 선형적인 문제 (0) | 2022.01.15 |
딥러닝 기초 -1 퍼셉트론 선형 분류기 (0) | 2022.01.15 |