|  |     | 
| 1번째 줄: | 1번째 줄: | 
|  | 가중치 감소(Weight Decay)는 머신러닝 및 딥러닝에서 과적합(overfitting)을 방지하기 위한 정규화(regularization) 기법이다. 학습 과정에서 모델의 가중치(weight)가 지나치게 커지는 것을 억제하여, 일반화(generalization) 능력을 향상시키는 역할을 한다.
 |  | #넘겨주기 [[가중치 감쇠]] | 
|  | ==개요==
 |  | 
|  | 가중치 감소는 손실 함수(loss function)에 '''가중치의 크기(weight magnitudes)''' 에 대한 '''페널티(penalty)''' 를 추가함으로써 작동한다. 이렇게 하면 모델이 단순한 가중치 구조를 갖도록 유도되어, 학습 데이터의 노이즈나 과적합을 덜 하게 된다.
 |  | 
|  | ==작동 원리==
 |  | 
|  | *손실 함수에 추가되는 항은 보통 가중치 벡터의 제곱합이다.
 |  | 
|  | **예: 수정된 손실 = 원래 손실 + λ × (가중치 제곱합)
 |  | 
|  | *[[경사 하강법]]과 같은 [[딥 러닝 옵티마이저|옵티마이제이션]] 과정에서, 가중치가 업데이트될 때 추가 항이 반영되어 매 스텝마다 가중치가 일정 비율 줄어든다.
 |  | 
|  | **예: 새로운 가중치 = 이전 가중치 - 학습률 × (기울기 + λ × 가중치)
 |  | 
|  | ==종류 및 변형==
 |  | 
|  | *'''[[L2 정규화]]''': 가장 일반적인 방식으로, 가중치의 제곱합에 비례한 패널티를 부여한다.
 |  | 
|  | *'''[[L1 정규화]]''': 가중치의 절댓값에 패널티를 부여하여 일부 가중치를 0으로 만들어 희소성을 유도한다.
 |  | 
|  | *'''계층별 또는 모듈별 가중치 감소 조정''': 대형 언어 모델에서는 서로 다른 레이어에 서로 다른 강도의 weight decay를 적용하는 방식이 연구되고 있다.
 |  | 
|  | ==장점 및 한계==
 |  | 
|  | ===장점===
 |  | 
|  | *'''과적합 억제''': 복잡한 모델이 학습 데이터의 노이즈에 과도하게 적합되는 것을 막는다.
 |  | 
|  | *'''일반화 성능 향상''': 새로운 데이터에 대해 더 나은 성능을 기대할 수 있다.
 |  | 
|  | *'''수치적 안정성 개선''': 큰 가중치로 인한 기울기 폭발이나 수치 불안정을 줄이는 데 도움이 된다.
 |  | 
|  | ===한계===
 |  | 
|  | *λ 값이 너무 크면 '''언더피팅(underfitting)''' 이 발생할 수 있다.
 |  | 
|  | *일부 파라미터(예: 편향, BatchNorm 계수)에는 감쇠를 적용하지 않는 것이 일반적이다.
 |  | 
|  | *학습률, 옵티마이저 설정 등 다른 하이퍼파라미터와 민감하게 상호작용한다.
 |  | 
|  | *배치 정규화와 함께 사용될 경우 효과가 약화되거나 달라질 수 있다.
 |  | 
|  | ==응용 및 최근 연구==
 |  | 
|  | *'''AlphaDecay''': 대형 언어 모델에서 레이어별로 다른 weight decay를 적용하는 방식
 |  | 
|  | *'''저랭크(low-rank) 특성 유도''': weight decay가 신경망 파라미터의 저랭크 구조를 유도한다는 연구
 |  | 
|  | *'''BatchNorm과의 관계''': BatchNorm과 함께 사용될 때의 작동 원리에 대한 분석
 |  | 
|  | ==같이 보기==
 |  | 
|  | *[[정규화 (머신러닝)]]
 |  | 
|  | *[[드롭아웃]]
 |  | 
|  | *[[배치 정규화]]
 |  | 
|  | *[[과적합]]
 |  | 
|  | *[[옵티마이저]]
 |  | 
|  | ==참고 문헌==
 |  | 
|  | *Di He, Ajay Jaiswal, Songjun Tu, Li Shen, Ganzhao Yuan, Shiwei Liu, Lu Yin. “AlphaDecay: Module-wise Weight Decay for Heavy-Tailed Balancing in LLMs”. arXiv:2506.14562.
 |  | 
|  | *Ke Chen, Chugang Yi, Haizhao Yang. “Towards Better Generalization: Weight Decay Induces Low-rank Bias for Neural Networks”. arXiv:2410.02176.
 |  | 
|  | *Yucong Zhou, Yunxiao Sun, Zhao Zhong. “FixNorm: Dissecting Weight Decay for Training Deep Neural Networks”. arXiv:2103.15345.
 |  | 
|  | *Ziquan Liu, Yufei Cui, Jia Wan, Yu Mao, Antoni B. Chan. “Weight Rescaling: Effective and Robust Regularization for Deep Neural Networks with Batch Normalization”. arXiv:2102.03497.
 |  | 
|  | ==각주==
 |  | 
|  | [[분류:인공지능]]
 |  |