익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
엔비디아 A100
편집하기
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
'''NVIDIA A100'''(엔비디아 A100 Tensor Core GPU)은 엔비디아가 데이터센터 및 고성능 컴퓨팅(HPC) 및 인공지능(AI) 워크로드를 위해 설계한 최상위급 GPU 가속기이다. ==개요== NVIDIA A100은 2020년에 발표된 Ampere 아키텍처 기반의 데이터센터용 가속기로, 대형 모델 학습(training), 딥러닝 추론(inference), HPC 애플리케이션을 염두에 두고 설계되었다. 특히 대용량 메모리(HBM2/HBM2e), 고대역폭 메모리 인터페이스, 멀티인스턴스 GPU(MIG) 기능 등으로 유연한 리소스 분할이 가능하다. ==주요 사양== {| class="wikitable" !항목!!내용 |- |아키텍처||NVIDIA Ampere (GA100) |- |메모리 옵션||40 GB HBM2 또는 80 GB HBM2e |- |메모리 대역폭||약 1.6 TB/s (40 GB) 또는 약 2.0 TB/s (80 GB) |- |FP64 (더블 정밀도) 성능||최대 약 9.7 TFLOPS |- |FP32 (싱글 정밀도) 성능||약 19.5 TFLOPS |- |Tensor Float32 (TF32) 성능||최대 약 156 TFLOPS (희박도 적용 시 312 TFLOPS) |- |FP16 / BFLOAT16 Tensor 코어 성능||약 312 TFLOPS (최대 624 TFLOPS) |- |INT8 Tensor 코어 성능||약 624 TOPS (최대 1,248 TOPS) |- |INT4 Tensor 코어 성능||최대 약 2,496 TOPS (희박도 적용 시) |- |전력 소비(TDP)||버전 및 폼팩터에 따라 250 W ~ 400 W |- |멀티인스턴스 GPU(MIG)||최대 7개의 독립 GPU 인스턴스로 분할 가능 |} ==특징 및 기술== *대형 AI 모델 학습과 추론을 위해 설계된 범용 가속기로, “하나의 가속기로 모든 워크로드”를 지향한다. *HBM2/HBM2e 메모리와 매우 높은 메모리 대역폭을 통해 대용량 데이터셋 및 모델 처리를 가속한다. *MIG(Multi-Instance GPU) 기능을 통해 하나의 물리적 GPU를 여러 개의 논리 GPU로 분할하여 다양한 작업을 동시에 실행할 수 있다. *NVLink 및 NVSwitch 인터커넥트를 지원하여 멀티 GPU 클러스터에서 뛰어난 확장성을 제공한다. *구조적 희박성(Structured Sparsity) 지원으로 연산 효율을 향상시킨다. ==활용== *대형 언어 모델(LLM) 학습 및 추론, 딥러닝 연구, HPC 시뮬레이션, 데이터 분석 등에 널리 사용된다. *클라우드 서비스 및 슈퍼컴퓨터 인프라에서 기본 가속기로 채택되고 있다. *엣지나 개인용이 아닌, 주로 데이터센터 및 연구용 환경을 대상으로 한다. ==장점 및 한계== ===장점=== *동급 GPU 중 최고 수준의 연산 성능을 제공한다. *대용량 메모리와 높은 대역폭으로 초대형 모델 처리 가능. *MIG 기능으로 하나의 GPU를 다중 사용자가 효율적으로 나눠 쓸 수 있다. ===한계=== *가격이 매우 높으며, 일반 소비자 환경에서는 비경제적이다. *높은 전력 소비와 냉각 요구 사항이 있다. *게이밍 및 그래픽 전용 워크로드에는 최적화되어 있지 않다. ==가격 정보== *소비자 시장에서는 구매가 어렵고, 데이터센터용으로 수천 달러대부터 시작한다. *클라우드 환경에서는 시간당 과금 방식으로 제공되며, GPU 인스턴스당 수십 달러 이상이 부과될 수 있다. ==같이 보기== *[[NVIDIA T4]] *[[NVIDIA L4 (GPU)]] *[[NVIDIA H100]] *[[딥러닝 학습]] *[[고성능 컴퓨팅]] ==참고 문헌== *[https://www.nvidia.com/en-us/data-center/a100/ NVIDIA, “NVIDIA A100 Tensor Core GPU”] *[https://www.nvidia.com/content/dam/en-zz/Solutions-Data-Center/a100/pdf/a100-datasheet-us-nvidia-1758950-r4-web.pdf NVIDIA, “A100 Datasheet (40GB/80GB)”] *[https://www.nvidia.com/content/dam/en-zz/Solutions-Data-Center/a100/pdf/a100-80gb-datasheet-update-nvidia-us-1521051-r2-web.pdf NVIDIA, “A100 80GB Datasheet Update”] *[https://www.nvidia.com/content/dam/en-zz/Solutions/data-center/nvidia-ampere-architecture-whitepaper.pdf NVIDIA, “Ampere Architecture Whitepaper”] *[https://datacrunch.io/blog/nvidia-a100-specs/ DataCrunch, “NVIDIA A100 GPU Specs, Price and Use Cases”] ==각주== [[분류:GPU]] [[분류:인공지능]] [[분류:하드웨어]]
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록