익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
엔비디아 GPU 아키텍처
편집하기 (부분)
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
==아키텍처별 주요 특징== ===Kepler (2012)=== *CUDA Compute Capability 3.x 기반으로 GPU 병렬 처리 효율을 개선하였다. *SMX(Streaming Multiprocessor eXtended) 구조로 전력 효율 향상. *동적 병렬 처리(Dynamic Parallelism) 기능 도입으로 GPU 내에서 커널 호출이 가능해졌다. *NVENC 하드웨어 인코더 탑재로 영상 처리 가속 지원. *대표 모델: GeForce GTX 680, Tesla K20, Quadro K6000. ===Maxwell (2014)=== *SM(Streaming Multiprocessor) 구조를 단순화하여 효율 향상. *GPU Boost 2.0 기술을 통한 전력·클럭 최적화. *새로운 캐시 아키텍처로 렌더링 성능 향상. *전력 대비 성능비가 이전 세대 대비 약 2배 향상. *대표 모델: GeForce GTX 980, GTX 750 Ti, Tesla M40. ===Pascal (2016)=== *16 nm FinFET 공정으로 제조되어 클럭 속도와 전력 효율을 동시에 개선. *HBM2 및 GDDR5X 메모리 지원으로 메모리 대역폭이 향상되었다. *NVLink 기술 최초 적용으로 GPU 간 통신 성능 강화. *FP16(하프 정밀도) 연산 및 HPC 최적화. *대표 모델: GeForce GTX 1080 Ti, Tesla P100, Quadro P6000. ===Volta (2017)=== *엔비디아 최초로 Tensor Core를 탑재하여 AI 연산 성능이 대폭 향상되었다. *CUDA Core와 Tensor Core의 병렬 구조로 AI + 그래픽 연산 병행 가능. *NVLink 2.0 지원, 메모리 대역폭 최대 900 GB/s. *FP16 연산 성능 강화로 딥러닝 가속기 시장을 선도. *대표 모델: Tesla V100, Quadro GV100. ===Turing (2018~2019)=== *RT Core(Ray Tracing)와 Tensor Core를 통합하여 실시간 레이 트레이싱 구현. *DLSS(Deep Learning Super Sampling) 기술 지원으로 AI 기반 업스케일링 가능. *GDDR6 메모리 도입, 렌더링 효율을 높이는 Variable Rate Shading(VRS) 지원. *실시간 그래픽 + AI 가속의 융합 세대. *대표 모델: GeForce RTX 2080 Ti, Quadro RTX 8000, Tesla T4. ===Ampere (2020)=== *2세대 RT Core, 3세대 Tensor Core 탑재. *FP16, BFLOAT16, Tensor Float32(TF32) 등 다양한 연산 정밀도 지원. *PCIe 4.0, NVLink 3.0 지원으로 데이터 전송 속도 향상. *전력 효율 및 성능 모두 개선되어 데이터센터, AI, 게이밍 분야에 폭넓게 활용. *대표 모델: GeForce RTX 3080, RTX 3090, NVIDIA A100. ===Ada Lovelace (2022)=== *4세대 Tensor Core, 3세대 RT Core 탑재. *DLSS 3 기술 도입으로 프레임 생성(Frame Generation) 기능 제공. *5nm 공정 기반으로 전력당 성능비가 Ampere 대비 크게 향상. *실시간 렌더링, 생성형 AI 처리, 고해상도 그래픽에 최적화됨. *대표 모델: GeForce RTX 4090, NVIDIA L4, L40. ===Hopper (2022)=== *데이터센터 및 HPC용 아키텍처. *Transformer Engine 탑재로 대규모 언어 모델(LLM) 학습에 최적화. *NVLink 4.0 및 NVSwitch 지원, GPU 간 초고속 연결 가능. *FP8 연산 지원으로 AI 연산 효율 극대화. *대표 모델: NVIDIA H100. ===Blackwell (2024)=== *차세대 데이터센터·AI 슈퍼컴퓨팅용 아키텍처. *약 2000억 트랜지스터, 3D 패키징 기술 적용. *칩-투-칩 대역폭 최대 10TB/s의 초고속 인터커넥트 제공. *FP8 및 FP4 연산 지원으로 AI 학습·추론 모두 고효율화. *Grace CPU와 통합된 GB200 슈퍼칩 형태로 출시. *대표 모델: NVIDIA GB200, GB100.
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록