레이어 정규화: 편집 역사

IT 위키

차이 선택: 비교하려는 판의 라디오 버튼을 선택한 다음 엔터나 아래의 버튼을 누르세요.
설명: (최신) = 최신 판과 비교, (이전) = 이전 판과 비교, 잔글= 사소한 편집

    2025년 7월 16일 (수)

    • 최신이전 03:592025년 7월 16일 (수) 03:59인공무능 토론 기여 2,480 바이트 +2,480 새 문서: 레이어 정규화(Layer Normalization, 줄여서 '''LayerNorm''')은 인공 신경망에서 각 층의 출력 값을 정규화하여 학습을 안정화하고 수렴 속도를 높이는 정규화 기법이다. ==개요== LayerNorm은 배치 크기와 관계없이 각 데이터 샘플의 특징 차원(feature dimension)에 대해 정규화를 수행한다. 이는 배치 단위로 정규화를 수행하는 배치 정규화(BatchNorm)와 달리, 시퀀스 모델이나 온라인... 태그: 시각 편집