익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
블록 부동소수점 양자화
편집하기 (부분)
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
==응용 및 활용== 양자화된 딥 뉴럴 네트워크에서는 블록 부동소수점 표현이 다음과 같은 역할을 할 수 있다: ===추론 및 모델 압축=== 신경망의 가중치(weight)와 활성화(activation)를 BFP 형식으로 표현하면, 메모리 사용량과 대역폭을 줄이면서도 어느 정도의 동적 범위를 유지할 수 있다. 예를 들어 “BFP16” 양자화는 16비트 블록 부동소수점 표현을 사용하는 방식으로, 여러 수들이 공유 지수를 사용하면서도 16비트 수준의 표현력을 확보하는 방식이다. <ref>“BFP16 (Block floating point) Quantization”, AMD ONNX 튜토리얼</ref> ===학습 훈련 시 사용=== 블록 부동소수점은 단순히 추론뿐 아니라 학습 과정에서도 사용 가능하다. 예컨대 “FAST: DNN Training Under Variable Precision Block Floating Point” 연구에서는 가중치, 활성화, 그래디언트(gradient) 등을 BFP로 표현하면서, 계층별·훈련 단계별로 비트 폭을 유동적으로 조정하는 접근을 제안하였다. <ref>“FAST: DNN Training Under Variable Precision Block Floating Point with Stochastic Rounding”</ref> 또한, 블록 부동소수점을 하이브리드 방식(Hybrid BFP)으로 도입하여, 대부분의 연산은 BFP에서 처리하고 일부 민감한 연산만 고정고정 또는 높은 정밀도로 처리하는 방식도 연구되고 있다. ===최적화 & 비트폭 결정=== 최근 연구에서는 블록 크기 및 비트폭(bit-width)을 최적화하여 정확도와 연산 효율의 균형을 맞추는 것이 중요한 과제로 떠오르고 있다. 예를 들어 “BitQ: Tailoring Block Floating Point Precision for Improved DNN Efficiency”는 DNN 추론에서 비트폭 및 블록 크기를 최적화하는 분석 모델을 제시하였다. <ref>“BitQ: Tailoring Block Floating Point Precision for Improved DNN”</ref> 또한, 대형 언어 모델(LLM) 계열에서는 블록 부동소수점이 전통적인 정수 양자화(Int8 등)에 비해 표현력과 동적 범위 측면에서 유리하다는 논의도 점차 많아지고 있다. <ref>“Accurate Block Quantization in LLMs with Outliers”</ref>
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록