가중치 감소: 두 판 사이의 차이

IT 위키
편집 요약 없음
(가중치 감쇠 문서로 넘겨주기)
태그: 새 넘겨주기
 
1번째 줄: 1번째 줄:
가중치 감소(Weight Decay)는 머신러닝 및 딥러닝에서 과적합(overfitting)을 방지하기 위한 정규화(regularization) 기법이다. 학습 과정에서 모델의 가중치(weight)가 지나치게 커지는 것을 억제하여, 일반화(generalization) 능력을 향상시키는 역할을 한다.
#넘겨주기 [[가중치 감쇠]]
==개요==
가중치 감소는 손실 함수(loss function)에 '''가중치의 크기(weight magnitudes)''' 에 대한 '''페널티(penalty)''' 를 추가함으로써 작동한다. 이렇게 하면 모델이 단순한 가중치 구조를 갖도록 유도되어, 학습 데이터의 노이즈나 과적합을 덜 하게 된다.
==작동 원리==
*손실 함수에 추가되는 항은 보통 가중치 벡터의 제곱합이다.
**예: 수정된 손실 = 원래 손실 + λ × (가중치 제곱합)
*[[경사 하강법]]과 같은 [[딥 러닝 옵티마이저|옵티마이제이션]] 과정에서, 가중치가 업데이트될 때 추가 항이 반영되어 매 스텝마다 가중치가 일정 비율 줄어든다.
**예: 새로운 가중치 = 이전 가중치 - 학습률 × (기울기 + λ × 가중치)
==종류 및 변형==
*'''[[L2 정규화]]''': 가장 일반적인 방식으로, 가중치의 제곱합에 비례한 패널티를 부여한다.
*'''[[L1 정규화]]''': 가중치의 절댓값에 패널티를 부여하여 일부 가중치를 0으로 만들어 희소성을 유도한다.
*'''계층별 또는 모듈별 가중치 감소 조정''': 대형 언어 모델에서는 서로 다른 레이어에 서로 다른 강도의 weight decay를 적용하는 방식이 연구되고 있다.
==장점 및 한계==
===장점===
*'''과적합 억제''': 복잡한 모델이 학습 데이터의 노이즈에 과도하게 적합되는 것을 막는다.
*'''일반화 성능 향상''': 새로운 데이터에 대해 더 나은 성능을 기대할 수 있다.
*'''수치적 안정성 개선''': 큰 가중치로 인한 기울기 폭발이나 수치 불안정을 줄이는 데 도움이 된다.
===한계===
*λ 값이 너무 크면 '''언더피팅(underfitting)''' 이 발생할 수 있다.
*일부 파라미터(예: 편향, BatchNorm 계수)에는 감쇠를 적용하지 않는 것이 일반적이다.
*학습률, 옵티마이저 설정 등 다른 하이퍼파라미터와 민감하게 상호작용한다.
*배치 정규화와 함께 사용될 경우 효과가 약화되거나 달라질 수 있다.
==응용 및 최근 연구==
*'''AlphaDecay''': 대형 언어 모델에서 레이어별로 다른 weight decay를 적용하는 방식
*'''저랭크(low-rank) 특성 유도''': weight decay가 신경망 파라미터의 저랭크 구조를 유도한다는 연구
*'''BatchNorm과의 관계''': BatchNorm과 함께 사용될 때의 작동 원리에 대한 분석
==같이 보기==
*[[정규화 (머신러닝)]]
*[[드롭아웃]]
*[[배치 정규화]]
*[[과적합]]
*[[옵티마이저]]
==참고 문헌==
*Di He, Ajay Jaiswal, Songjun Tu, Li Shen, Ganzhao Yuan, Shiwei Liu, Lu Yin. “AlphaDecay: Module-wise Weight Decay for Heavy-Tailed Balancing in LLMs”. arXiv:2506.14562.
*Ke Chen, Chugang Yi, Haizhao Yang. “Towards Better Generalization: Weight Decay Induces Low-rank Bias for Neural Networks”. arXiv:2410.02176.
*Yucong Zhou, Yunxiao Sun, Zhao Zhong. “FixNorm: Dissecting Weight Decay for Training Deep Neural Networks”. arXiv:2103.15345.
*Ziquan Liu, Yufei Cui, Jia Wan, Yu Mao, Antoni B. Chan. “Weight Rescaling: Effective and Robust Regularization for Deep Neural Networks with Batch Normalization”. arXiv:2102.03497.
==각주==
[[분류:인공지능]]

2025년 10월 30일 (목) 07:32 기준 최신판

넘겨줄 대상: