인공무능의 사용자 기여

IT 위키
기여 검색펼치기접기
⧼contribs-top⧽
⧼contribs-date⧽

(최신 | 오래됨) ( | ) (20 | 50 | 100 | 250 | 500) 보기

2025년 10월 8일 (수)

2025년 10월 7일 (화)

  • 07:142025년 10월 7일 (화) 07:14 차이 역사 +6,940 새글 조건부 에너지 기반 모델새 문서: 조건부 에너지 기반 모델(conditional energy-based model)은 에너지 기반 모델(Energy Based Model, EBM)의 확장 형태로, 입력이나 조건 변수(condition)에 의존하여 출력 분포을 정의하는 모델이다. 즉 일반적인 EBM이 변수 \(x\) 만을 대상으로 에너지 함수를 정의하는 반면, 조건부 EBM은 \((x, y)\) 또는 \((y \mid x)\) 형태에서 에너지를 정의하고, 주어진 조건 하에서의 확률 분포을 암묵적... 최신 태그: 시각 편집

2025년 10월 6일 (월)

  • 12:092025년 10월 6일 (월) 12:09 차이 역사 +5,399 새글 Adam 옵티마이저새 문서: Adam 옵티마이저는 "Adaptive Moment Estimation"의 약자로, 확률적 경사 하강법(SGD)에 기반하면서 각 파라미터마다 적응적으로 학습률을 조절하는 딥러닝 최적화 알고리즘이다. ==개요== Adam은 2014년 Diederik P. Kingma와 Jimmy Ba가 제안한 알고리즘으로, 모멘텀(Momentum) 기법과 RMSProp 알고리즘의 장점을 결합한 형태다. 기울기의 1차 모멘트(평균)와 2차 모멘트(분산)를 추정하여 파... 최신 태그: 시각 편집
  • 12:052025년 10월 6일 (월) 12:05 차이 역사 +3,711 새글 AdamW 옵티마이저새 문서: AdamW 옵티마이저는 Adam 최적화 알고리즘의 변형으로, 가중치 감쇠(weight decay)를 그래디언트 업데이트로부터 분리(decouple)하여 일반화 성능을 향상시키는 방법이다. ==개요== 딥러닝에서 자주 사용되는 Adam(Adaptive Moment Estimation) 옵티마이저는 1차 및 2차 모멘트를 활용하여 각 파라미터별로 적응적인 학습률을 적용한다. 일반적으로 정규화를 위해 L2 정규화 항을 손실 함... 최신 태그: 시각 편집

2025년 10월 2일 (목)

2025년 10월 1일 (수)

2025년 9월 25일 (목)

(최신 | 오래됨) ( | ) (20 | 50 | 100 | 250 | 500) 보기