경고: 로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다. 로그인하거나 계정을 생성하면 편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
편집을 취소할 수 있습니다.
이 편집을 되돌리려면 아래의 바뀐 내용을 확인한 후 게시해주세요.
최신판 |
당신의 편집 |
1번째 줄: |
1번째 줄: |
| [[분류:인공지능]] | | [[분류:인공지능]] |
| ;Activation Function | | ;Activation Function |
| ;[[인공 신경망]] 모델에서 입력값으로 받은 데이터를 다음 층으로 어떻게 출력할지를 결정하는 함수
| |
|
| |
|
| == 종류 == | | == 종류 == |
| {| class="wikitable"
| | * 단극성 |
| ! 구분
| | ** [[시그모이드|시그모이드(Sigmoid)]] |
| ! 명칭
| | ** [[렐루|ReLU(Rectified Linear Unit)]] |
| ! 그래프
| | * 양극성 |
| ! 설명
| | ** [[하이퍼볼릭 탄젠트|하이퍼볼릭 탄젠트(Hyperbolic Tangent, tanh))]] |
| |-
| | ** [[LReLU]] |
| | rowspan="3" | 단극성
| | ** [[Max Out]] |
| | Sigmoid
| |
| | [[파일:활성화함수-시그모이드.png]]
| |
| | 로지스틱 함수. x값을 변화에 따라 0~출력
| |
| |-
| |
| | ReLU
| |
| | [[파일:활성화함수-렐루.png]]
| |
| | x값이 음수일 땐 0 고정
| |
| |-
| |
| | Softmax
| |
| | 2차원 그래프로 표현 불가
| |
| | 여러 입력값을 0~1로 나누어 표현
| |
| |-
| |
| | rowspan="3" | 양극성
| |
| | tanh
| |
| | [[파일:활성화함수-하이퍼볼릭탄젠트.png]]
| |
| | Sigmod보다 기울기가 크며 1~1 범위를 가짐 | |
| |-
| |
| | LReLU
| |
| | [[파일:활성화함수-리키렐루.png]]
| |
| | 음수일 때 입력값의 1/10 출력
| |
| |-
| |
| | Maxout
| |
| | 2차원 그래프로 표현 불가
| |
| | 두 개의 W와 b중에서 큰 값 사용
| |
| |}
| |
| | |
| == 같이 보기 ==
| |
| * [[인공 신경망]] | |
| * [[퍼셉트론]] | |