익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
활성화 함수
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
PE가즈아
(
토론
|
기여
)
님의 2019년 10월 26일 (토) 23:23 판
(
차이
)
← 이전 판
| 최신판 (차이) | 다음 판 → (차이)
Activation Function
인공 신경망
모델에서 입력값으로 받은 데이터를 다음 층으로 어떻게 출력할지를 결정하는 함수
종류
[
편집
|
원본 편집
]
구분
명칭
그래프
설명
단극성
Sigmoid
로지스틱 함수. x값을 변화에 따라 0~출력
ReLU
x값이 음수일 땐 0 고정
Softmax
2차원 그래프로 표현 불가
여러 입력값을 0~1로 나누어 표현
양극성
tanh
Sigmod보다 기울기가 크며 1~1 범위를 가짐
LReLU
음수일 때 입력값의 1/10 출력
Maxout
2차원 그래프로 표현 불가
두 개의 W와 b중에서 큰 값 사용
같이 보기
[
편집
|
원본 편집
]
인공 신경망
퍼셉트론
분류
:
인공지능
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
이 문서 인용하기
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
인쇄용 판
고유 링크
문서 정보
문서 기록
분류 목록
분류 목록
인공지능