익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
학습 가능한 양자화 기법
편집하기
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
* 상위 문서: [[신경망 양자화]] * 상위 문서: [[신경망 양자화 기법]] '''학습 가능한 양자화(Learnable Quantization) 기법'''은 양자화의 하이퍼파라미터(예: 클리핑 한계, 구간 간격, 스케일 등)를 고정하지 않고, 학습 과정에서 함께 최적화하는 방식이다. * 이 접근법은 모델이 양자화 오차에 스스로 적응하도록 만들어 정확도 손실을 최소화한다. == PACT (Parameterized Clipping Activation) == * 참고 논문: Choi, Jungwook, et al. ''PACT: Parameterized Clipping Activation for Quantized Neural Networks.'' arXiv:1805.06085 (2018) '''개념''' * 기존 양자화에서는 활성화값(activation)의 최대·최소 범위 (−L, L)을 고정했지만, PACT는 클리핑 한계값 α (또는 L)을 '''학습 가능한 파라미터'''로 둔다. * 모델이 학습 과정에서 적절한 클리핑 범위를 스스로 조정하여, 활성화값의 분포에 최적화된 양자화 범위를 찾는다. '''특징''' * 주로 '''활성화 양자화(activation quantization)'''에 사용된다. * 단순하고 효과적이며, 여러 네트워크에서 정확도 향상이 입증되었다. '''수식 예시:'''<blockquote>x_c = Clip(x, -α, α) α is learnable.</blockquote> == QIL (Quantization Interval Learning) == * 참고 논문: Jung, Sangil, et al. ''Learning to Quantize Deep Networks by Optimizing Quantization Intervals with Task Loss''. CVPR (2019) '''개념''' * 단순히 클리핑 범위만 학습하는 것이 아니라, '''양자화 구간(interval)'''과 '''라운딩 함수(mapping function)'''의 형태를 함께 학습한다. * 손실 함수(task loss)를 통해 최적의 양자화 구간을 찾음으로써, 모델이 양자화 오차에 직접 적응하도록 설계되었다. * 학습된 함수 F(w)를 통해 실수 가중치 w를 양자화 함수 Q로 매핑한다. w_q = Q(F(w)) '''특징''' * 주로 '''가중치 양자화(weight quantization)'''에 적용된다. * 양자화 함수의 형태를 학습하므로 더 유연하고 정밀한 표현이 가능하다. * 활성화에는 계산량이 커서 잘 적용되지 않는다. == QN (Quantization Networks) == * 참고 논문: Yang, Jiwei, et al. ''Quantization Networks.'' CVPR (2019) '''개념''' * 양자화를 '''비선형 함수 근사 문제'''로 해석하고, 신경망 구조 자체로 양자화 함수를 학습한다. * 계단 함수(staircase function)를 직접 쓰지 않고, '''시그모이드(sigmoid) 함수'''로 부드럽게 근사한 후 학습 중 점차 온도(temperature) 파라미터 T를 높여 경계가 뚜렷한 양자화 함수로 수렴시킨다. '''특징''' * 완전한 '''end-to-end 학습'''이 가능하다. * 연속적 근사로 인해 역전파(gradient) 계산이 용이하다. * "양자화도 학습할 수 있는 네트워크"라는 개념적 확장을 제시한다. ==비교== {| class="wikitable" style="text-align:center;" !구분!!PACT !!QIL!!QN |- | 제안연도||2018||2019||2019 |- | 핵심 아이디어||클리핑 한계값 L 학습||양자화 구간 및 라운딩 함수 형태 학습||신경망으로 양자화 함수 근사 |- |학습 대상||활성화값 ||가중치||전체 양자화 함수 |- | 적용 범위||QAT||QAT||QAT |- |장점||단순·효과적, 계산 효율 높음||유연한 양자화, 높은 정확도||완전 미분 가능, end-to-end 학습 가능 |} == 참고 문헌 == * Choi, J. et al., <nowiki>''</nowiki>PACT: Parameterized Clipping Activation for Quantized Neural Networks<nowiki>''</nowiki>, arXiv:1805.06085 (2018) * Jung, S. et al., <nowiki>''Learning to Quantize Deep Networks by Optimizing Quantization Intervals with Task Loss''</nowiki>, CVPR (2019) * Yang, J. et al., <nowiki>''Quantization Networks''</nowiki>, CVPR (2019) [[분류:인공지능]] [[분류:딥 러닝]]
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록