리키 렐루: 편집 역사

IT 위키

차이 선택: 비교하려는 판의 라디오 버튼을 선택한 다음 엔터나 아래의 버튼을 누르세요.
설명: (최신) = 최신 판과 비교, (이전) = 이전 판과 비교, 잔글= 사소한 편집

    2025년 9월 11일 (목)

    • 최신이전 01:562025년 9월 11일 (목) 01:56인공무능 토론 기여 2,010 바이트 +2,010 새 문서: 리키 렐루(Leaky ReLU)는 입력값이 음수일 때에도 완전히 0이 되지 않고, 작은 기울기를 유지하는 활성화 함수이다. 이 함수는 딥러닝에서 흔히 사용되는 ReLU(Rectified Linear Unit)의 변형으로, '죽은 뉴런(dying neuron)' 문제를 완화하기 위해 제안되었다. ==정의== 리키 렐루는 입력값 x가 0보다 크면 x 그대로 출력하고, 0 이하일 경우 작은 기울기를 곱한 값(예: 0.01 × x)을 출력하... 태그: 시각 편집