활성화 함수: 두 판 사이의 차이

IT위키
편집 요약 없음
편집 요약 없음
 
1번째 줄: 1번째 줄:
[[분류:인공지능]]
[[분류:인공지능]]
;Activation Function
;Activation Function
;[[인공 신경망]] 모델에서 입력값으로 받은 데이터를 다음 층으로 어떻게 출력할지를 결정하는 함수


== 종류 ==
== 종류 ==
35번째 줄: 36번째 줄:
| 두 개의 W와 b중에서 큰 값 사용
| 두 개의 W와 b중에서 큰 값 사용
|}
|}
== 같이 보기 ==
* [[인공 신경망]]
* [[퍼셉트론]]

2019년 10월 26일 (토) 23:23 기준 최신판

Activation Function
인공 신경망 모델에서 입력값으로 받은 데이터를 다음 층으로 어떻게 출력할지를 결정하는 함수

종류[편집 | 원본 편집]

구분 명칭 그래프 설명
단극성 Sigmoid 활성화함수-시그모이드.png 로지스틱 함수. x값을 변화에 따라 0~출력
ReLU 활성화함수-렐루.png x값이 음수일 땐 0 고정
Softmax 2차원 그래프로 표현 불가 여러 입력값을 0~1로 나누어 표현
양극성 tanh 활성화함수-하이퍼볼릭탄젠트.png Sigmod보다 기울기가 크며 1~1 범위를 가짐
LReLU 활성화함수-리키렐루.png 음수일 때 입력값의 1/10 출력
Maxout 2차원 그래프로 표현 불가 두 개의 W와 b중에서 큰 값 사용

같이 보기[편집 | 원본 편집]