익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
KV 캐시 가지치기
편집하기 (부분)
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
==주요 전략 및 기법== 다양한 방법이 제안되고 있으며, 대표적인 접근들을 소개한다: *'''채널 수준 가지치기 (Channel Pruning)''' **KV 캐시의 채널(특성 차원) 단위 중요도를 평가하여 덜 중요한 채널을 제거 **예: ThinK — 쿼리 중심 기준으로 채널을 선택적으로 제거함으로써 메모리 절감 효과 달성 <ref>ThinK 논문</ref> *'''구조적 가지치기 (Structural Pruning)''' **KVPruner 등은 특정 블록 단위로 K/V 채널을 제거하는 방식으로, 구조적 압축을 수행함 <ref>KVPruner 논문</ref> **일부 레이어에서만 K/V 투영(projection)을 유지하고 나머지는 상위 레이어의 캐시를 공유하는 방식도 사용됨 (Cross‑Layer Attention 공유 방식) <ref>CLA 관련 연구</ref> *'''비정형 희소화 (Unstructured Sparsity)''' **Mustafar와 같은 최신 기법은 무작위 희소화 방식으로 캐시 내 원소들을 제거하되, 복원 가능한 sparse 구조로 처리 <ref>Mustafar 논문</ref> **비정형 구조는 더 유연하지만 하드웨어 최적화가 어렵다는 단점이 있다. *'''동적 제거 / 적응 제거 (Dynamic / Adaptive Pruning)''' **동적으로 중요하지 않은 토큰 또는 K/V를 제거하는 방식 **예: DMS (Dynamic Memory Sparsification) — 추론 시점에 캐시를 희소화하여 메모리 절감과 속도 개선을 동시에 노림 <ref>DMS 논문</ref> **또 다른 예: LazyLLM — 프리필(prefill) 단계에서 필요 없는 토큰의 K/V 계산을 지연 또는 생략 <ref>LazyLLM 논문</ref>
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록