활성화 함수: Difference between revisions

From IT Wiki
No edit summary
No edit summary
Line 3: Line 3:


== 종류 ==
== 종류 ==
* 단극성
{| class="wikitable"
** [[시그모이드|시그모이드(Sigmoid)]]
! 구분
** [[렐루|ReLU(Rectified Linear Unit)]]
! 명칭
* 양극성
! 그래프
** [[하이퍼볼릭 탄젠트|하이퍼볼릭 탄젠트(Hyperbolic Tangent, tanh))]]
! 설명
** [[LReLU]]
|-
** [[Max Out]]
| rowspan="3" | 단극성
| Sigmoid
| [[파일:활성화함수-시그모이드.png]]
| 로지스틱 함수. x값을 변화에 따라 0~출력
|-
| ReLU
| [[파일:활성화함수-렐루.png]]
| x값이 음수일 땐 0 고정
|-
| Softmax
| 2차원 그래프로 표현 불가
| 여러 입력값을 0~1로 나누어 표현
|-
| rowspan="3" | 양극성
| tanh
| [[파일:활성화함수-하이퍼볼릭탄젠트.png]]
| Sigmod보다 기울기가 크며 1~1 범위를 가짐
|-
| LReLU
| [[파일:활성화함수-리키렐루.png]]
| 음수일 때 입력값의 1/10 출력
|-
| Maxout
| 2차원 그래프로 표현 불가
| 두 개의 W와 b중에서 큰 값 사용
|}

Revision as of 23:22, 26 October 2019

Activation Function

종류

구분 명칭 그래프 설명
단극성 Sigmoid 활성화함수-시그모이드.png 로지스틱 함수. x값을 변화에 따라 0~출력
ReLU 활성화함수-렐루.png x값이 음수일 땐 0 고정
Softmax 2차원 그래프로 표현 불가 여러 입력값을 0~1로 나누어 표현
양극성 tanh 활성화함수-하이퍼볼릭탄젠트.png Sigmod보다 기울기가 크며 1~1 범위를 가짐
LReLU 활성화함수-리키렐루.png 음수일 때 입력값의 1/10 출력
Maxout 2차원 그래프로 표현 불가 두 개의 W와 b중에서 큰 값 사용