가리키는 글의 최근 바뀜
IT 위키
← 가중치 감쇠
해당 문서에 연결된 문서의 변경사항을 확인하려면 문서 이름을 입력하십시오. (분류에 들어있는 문서를 보려면 분류:분류명으로 입력하십시오). 내 주시문서 목록에 있는 문서의 변경사항은 굵게 나타납니다.
약어 목록:
- 새글
- 새 문서 (새 문서 목록도 보세요)
- 잔글
- 사소한 편집
- 봇
- 봇이 수행한 편집
- (±123)
- 바이트 수로 표현한 문서 크기의 차이
2025년 10월 30일 (목)
|  | 새글 07:35 | 딥 러닝 옵티마이저 3개 바뀜 역사 +4,241 [인공무능 (3×)] | |||
|  | 07:35 (최신 | 이전) 0 인공무능 토론 기여 태그: 시각 편집 | ||||
|  | 07:19 (최신 | 이전) −1 인공무능 토론 기여 태그: 시각 편집 | ||||
| 새글 |  | 07:11 (최신 | 이전) +4,242 인공무능 토론 기여 (새 문서: '''딥 러닝 옵티마이저(Deep Learning Optimizer)'''는 딥러닝 모델의 학습 과정에서 손실 함수(loss function)를 최소화하기 위해 신경망의 가중치 및 편향 등의 파라미터를 반복적으로 갱신하는 알고리즘이다. 이러한 최적화 알고리즘은 고차원, 비선형, 대규모 파라미터 공간을 가진 신경망에서 효율적이고 안정적으로 학습이 이루어지도록 하는 핵심 구성 요소이다. ==개념...) 태그: 시각 편집 | |||
| 새글 07:32 | L2 정규화 차이역사 +3,487 인공무능 토론 기여 (새 문서: '''L2 정규화'''(L2 Regularization)는 머신러닝과 딥러닝에서 모델의 복잡도를 억제하고 과적합(overfitting)을 방지하기 위해 손실 함수에 가중치의 제곱합을 추가하는 정규화 기법이다. 일반적으로 가'''중치 감쇠(weight decay)''' 또는 '''릿지 정규화(Ridge Regularization)''' 라고도 불린다. ==개념== L2 정규화는 모델의 파라미터(가중치)가 지나치게 커지지 않도록 제약을 부여한...) | ||||
| 07:14 | 옵티마이저 차이역사 +156 인공무능 토론 기여 (데이터베이스 옵티마이저에 대한 넘겨주기를 제거함) | ||||
| 06:59 | 드롭아웃 차이역사 +2,626 인공무능 토론 기여 | ||||

