익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
학습률 스케줄링
편집하기
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
학습률 스케줄링(learning rate scheduling)은 머신러닝 및 딥러닝 모델의 학습 과정에서 학습률을 시간 경과나 손실 함수의 상태에 따라 동적으로 조정하는 전략을 의미한다. 학습률은 최적화 성능에 큰 영향을 미치므로, 정적인 값 대신 변화하는 학습률을 사용하면 더 빠르고 안정적인 수렴을 유도할 수 있다. ==개요== 학습률은 경사 하강법 기반 최적화 알고리즘에서 파라미터 갱신의 폭을 조절하는 핵심 하이퍼파라미터이다. 학습률을 고정하면 초기에는 빠르게 수렴할 수 있지만, 이후에는 최솟값 주변에서 진동하거나 발산할 위험이 있다. 이러한 문제를 해결하기 위해 학습률을 점차 줄이거나 상황에 따라 조정하는 전략이 고안되었으며, 이를 학습률 스케줄링이라고 한다. ==필요성== *학습 초반에는 높은 학습률로 빠르게 수렴하고, 학습 후반에는 작은 학습률로 정밀하게 수렴할 수 있다. *고정된 학습률은 과적합, 발산, 학습 지연 등 다양한 문제를 일으킬 수 있다. *스케줄링을 통해 학습률을 체계적으로 조절하면 일반화 성능 향상에 도움이 된다. ==대표적인 기법== *단계 감소(Step Decay): 일정 에포크마다 학습률을 일정 비율로 감소시킨다. *지수 감소(Exponential Decay): 학습률을 지수 함수 형태로 지속적으로 감소시킨다. *다단계 감소(Multi-step Decay): 사용자가 지정한 여러 시점에 학습률을 급격히 줄이는 방식이다. *코사인 스케줄링(Cosine Annealing): 학습률을 코사인 함수 형태로 점차 줄였다가 다시 증가시키는 주기적 방식이다. *워뮵(Warmup): 학습 초기에 학습률을 천천히 증가시킨 뒤 이후 스케줄링 기법을 적용한다. *Plateau 감소(Reduce on Plateau): 검증 손실이 일정 에포크 이상 개선되지 않을 경우 학습률을 자동으로 감소시킨다. ==적용== 학습률 스케줄링은 대부분의 딥러닝 프레임워크에서 공식적으로 지원된다. 예를 들어, PyTorch와 TensorFlow는 다양한 스케줄링 클래스 또는 콜백을 통해 자동으로 학습률을 조절할 수 있게 한다. 이러한 기능은 복잡한 모델 구조나 큰 데이터셋에서 학습 효율을 극대화하는 데 기여한다. ==같이 보기== *[[학습률 (인공지능)]] *[[하이퍼파라미터]] *[[경사 하강법]] ==각주== [[분류:인공지능]] [[분류:딥 러닝]]
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록