Contents

엔비디아, 비용과 에너지 소비를 25배 줄인 차세대 블랙웰 GPU 공개

NVIDIA는 최근 에너지 효율이 크게 개선되어 AI 관련 연산을 수행하는 동안 전력 소비를 최대 25배까지 줄여주는 최신 버전의 블랙웰 그래픽 처리 장치를 출시했습니다.

엔비디아 GB200 그레이스 블랙웰 슈퍼칩은 단일 패키지 내에 여러 개의 프로세싱 유닛을 통합한 독특한 설계로 뛰어난 성능 기능을 자랑하는 놀라운 혁신 제품입니다. 이 최첨단 기술은 대규모 언어 모델(LLM) 추론 작업을 실행할 때 이전 버전보다 최대 30배까지 속도가 향상되는 등 전례 없이 향상된 효율성을 제공할 준비가 되어 있습니다.

Nvidia GTC 2024 의 기조 연설에서 엔비디아의 CEO인 젠슨 황은 수천 명의 엔지니어들에게 블랙웰을 공개하며 컴퓨팅의 혁신적 시대를 열 것이라고 말했습니다. 게이밍 제품은 추후 출시될 예정입니다.

기조 연설에서 황은 손에 든 프로토타입 디바이스의 가치가 100억 달러와 50억 달러라고 장난스럽게 언급했습니다. 이 칩은 그레이스 블랙웰 시스템의 필수 구성 요소였습니다.

가속 컴퓨팅의 발전은 인공 지능 및 딥 러닝과 같은 획기적인 발전을 촉진하는 것을 목표로 30년 이상 NVIDIA의 주요 초점이 되어 왔습니다. 이러한 기술은 현대 혁신의 정점에 있는 기술입니다. 블랙웰 GPU는 이러한 임박한 산업 혁신의 원동력이 되고 있으며, 뛰어난 역동성을 발휘하는 글로벌 기업들과 긴밀히 협력하여 모든 산업에 AI를 광범위하게 적용하는 데 기여하고 있습니다.

엔비디아는 차세대 블랙웰 기반 컴퓨터를 통해 이전 기술에 비해 비용과 에너지 소비를 크게 줄이면서 수조 개의 매개변수를 가진 대규모 언어 모델에서 실시간 생성 인공 지능을 생성하고 실행할 수 있게 되었다고 발표했습니다. 이러한 발전은 최대 10조 개의 매개변수를 가진 AI 모델까지 확장할 수 있습니다.

추론 칩 개발사 Groq, 하이엔드 CPU 공급업체 Cerebras, 업계 리더인 AMD와 Intel 등 시장의 저가형과 고가형 모두에 경쟁자가 존재한다는 점에서 Nvidia의 중요성은 더욱 높아집니다. 캘리포니아 마운틴뷰에 본사를 둔 Groq은 AI 트레이닝 칩이 아닌 추론 칩 설계를 전문으로 합니다.

/images/nvidia-unveils-next-gen-blackwell-gpus-with-25x-lower-costs-and-energy-consumption.jpg

엔비디아의 블랙웰 아키텍처는 이전 아키텍처인 호퍼에 비해 비용과 에너지 효율 모두에서 상당한 개선을 이루었습니다.

흑인 최초로 권위 있는 미국 국립과학아카데미에 입회한 저명한 수학자 데이비드 해롤드 블랙웰을 기리기 위해 개발된 블랙웰 플랫폼은 혁신적인 접근 방식과 최첨단 기능으로 가속 컴퓨팅의 기준을 높인 Nvidia Hopper GPU 아키텍처의 후속작으로, 혁신적인 접근 방식과 최첨단 기능으로 가속 컴퓨팅의 기준을 높였습니다.

GPU는 처음에는 비디오 게임의 그래픽 성능을 향상시키기 위해 설계되었지만 이후 인공 지능 처리의 원동력이 되어 Nvidia의 시장 가치를 2조 2천억 달러에 달하는 놀라운 수준으로 끌어올렸습니다. 이는 부분적으로는 첨단 기술 개발에 대한 혁신적인 접근 방식에 기인한 것으로, 연례 컨퍼런스인 ‘지포스 익스피리언스’에 대한 폭넓은 관심에서 알 수 있습니다.

혁신적인 플랫폼은 정보 관리, 컴퓨팅 모델링, 디지털 회로 설계, 지능형 제약 개발, 양자 컴퓨팅 및 인공 지능 생성 등 여러 분야에서 상당한 진전을 이룰 수 있는 획기적인 기술 발전의 집합을 선보입니다.

세계에서 가장 강력한 칩

/images/nvidia-unveils-next-gen-blackwell-gpus-with-25x-lower-costs-and-energy-consumption-1.jpg

생성 인공 지능의 발전으로 엔비디아는 블랙웰의 목표 달성을 향해 나아가고 있습니다.

황은 블랙웰 GPU가 2080억 개의 트랜지스터로 구성된 인상적인 배열을 자랑하며 세계에서 가장 강력한 GPU가 될 것이라고 주장했습니다. 이 칩은 4NP로 지정된 독점적인 2레티클 TSMC 공정을 활용하여 설계되어 탁월한 수준의 처리 용량을 제공할 수 있습니다.

블랙웰에 사용된 트랜스포머 엔진은 최첨단 마이크로 텐서 스케일링 지원과 고도의 동적 범위 관리 알고리즘이 탑재된 2세대 트랜스포머 아키텍처를 자랑합니다. 이를 통해 계산 능력과 모델 크기를 효과적으로 두 배로 늘리는 동시에 획기적인 4비트 부동 소수점 기능을 통합하여 AI 추론 효율을 향상시킬 수 있습니다.

NVIDIA는 GPU당 놀라운 양방향 처리량을 제공하고 GPU 간의 원활한 고속 통신을 촉진하여 수조 개의 매개변수를 가진 인공 지능 모델의 성능을 향상시키는 5세대 NVLink 네트워크 기술을 도입했습니다.

NVLink는 그래픽 처리 장치(GPU) 당 양방향으로 초당 1.8테라바이트의 놀라운 데이터 전송 속도를 지원하여 최대 576개의 GPU 간에 중단 없는 빠른 통신을 가능하게 합니다.이 기능은 최신 대규모 머신 러닝 애플리케이션에서 발생하는 연산 수요를 처리하는 데 필수적입니다.

블랙웰 기반 그래픽 처리 장치에 RAS(신뢰성, 가용성, 서비스 가능성) 엔진을 통합한 것은 인공지능 기술 구현을 통해 지속적인 모니터링과 사전 예방적 유지보수를 제공함으로써 신뢰성을 향상시키는 주목할 만한 기능입니다. 이를 통해 최적의 성능과 최소한의 운영 비용을 유지하면서 가동 시간을 극대화할 수 있습니다.

/images/nvidia-unveils-next-gen-blackwell-gpus-with-25x-lower-costs-and-energy-consumption-2.jpg

NVIDIA의 블랙웰 프로세서는 이러한 까다로운 애플리케이션을 위한 고급 기능과 성능 향상을 활용하여 대규모 서버 시스템에 통합될 예정입니다.

이 플랫폼은 최적의 성능 수준을 유지하면서 AI 모델과 민감한 고객 정보를 모두 보호하는 고급 AI 보안 솔루션을 채택하고 있으며, 이는 특히 엄격한 개인정보 보호 요구 사항이 있는 산업에 유용합니다.

최첨단 포맷 지원과 함께 고급 압축 기술을 활용하는 최적화된 압축 해제 엔진은 데이터 분석 및 과학적 컴퓨팅 기능을 강화하여 데이터 처리 및 분석 방식을 혁신합니다.

NVIDIA GB200 NVL72는 강력한 볼타 아키텍처의 텐서 코어를 활용하여 30테라바이트의 고속 메모리와 함께 인상적인 1.4 엑사플롭의 인공지능 처리 성능을 제공하는 랙 기반 컴퓨팅 솔루션입니다.

저명한 서버 공급업체 및 클라우드 서비스 제공업체뿐만 아니라 Amazon, Google, Meta, Microsoft, OpenAI와 같은 주요 업체들 사이에서 보편적으로 수용될 것으로 예상되는 Blackwell 플랫폼은 기술 산업의 다양한 부문에서 혁신적인 변화의 선두에 서게 될 것입니다.

Blackwell은 데이터 처리, 엔지니어링 시뮬레이션, 전자 설계 자동화, 컴퓨터 지원 의약품 설계, 양자 컴퓨팅, 생성 인공 지능 등 급성장하고 있는 분야의 고객들을 위해 집중할 계획이며, 이 모든 분야는 Nvidia가 유망한 전망을 가지고 있는 분야입니다.

엔비디아 GB200 그레이스 블랙웰 슈퍼칩은 놀라운 900GB/s 초저지연 상호 연결을 통해 2개의 엔비디아 B200 텐서 코어 그래픽 처리 장치와 엔비디아 그레이스 중앙 처리 장치를 원활하게 통합합니다. 이 놀라운 발전은 대규모 언어 모델 추론 작업에 활용될 때 Nvidia H100 텐서 코어 GPU와 비교했을 때 최대 30배의 성능 향상을 제공합니다. 또한 비용과 전력 소비를 최대 25배까지 크게 최소화합니다.

Nvidia GB200 NVL72는 멀티 노드 아키텍처와 액체 냉각 시스템을 통해 까다로운 워크로드를 처리하도록 설계된 고급 고성능 컴퓨팅 솔루션입니다. 36개의 Grace 블랙웰 슈퍼칩으로 구성된 이 시스템은 72개의 블랙웰 GPU와 36개의 Grace CPU를 통합하며, 모두 최첨단 5세대 NV링크 기술을 통해 연결됩니다.

또한 GB200 NVL72는 클라우드 네트워크 가속화를 촉진하기 위해 Nvidia의 BlueField-3 데이터 처리 모듈을 통합하여 하이퍼스케일 인공 지능 환경 내에서 컴포저블 스토리지, 제로 트러스트 보안 조치, GPU 컴퓨팅 유연성을 제공합니다. 이 플랫폼은 30테라바이트의 빠른 메모리와 함께 1.4엑사플롭스의 인상적인 AI 용량을 자랑하는 단독 그래픽 처리 장치로 작동합니다. 또한 최첨단 DGX SuperPOD의 기본 구성 요소 역할을 합니다.

엔비디아는 세계에서 가장 강력한 x86 기반 제너레이티브 AI 플랫폼을 지원하기 위해 고속 인터커넥트를 통해 8개의 B200 GPU를 연결하는 서버 보드인 HGX B200을 제공합니다. HGX B200은 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼-X 이더넷 네트워킹
플랫폼을 통해 최대 400Gb/s의 네트워킹 속도를 지원합니다.

저명한 클라우드 서비스 제공업체와 공동 설계한 AI 플랫폼인 NVIDIA의 DGX 클라우드는 진취적인 개발자에게 혁신적인 생성 AI 모델을 개발하고 구현하는 데 필요한 필수 리소스에 대한 독점적인 액세스를 제공합니다. 올해 아마존 웹 서비스, 구글 클라우드, 오라클 클라우드 인프라스트럭처는 각자의 엔비디아 그레이스 블랙웰 기반 인스턴스 옵션을 도입할 계획입니다.

시스코, 델 테크놀로지스, 휴렛팩커드 엔터프라이즈, 레노버, 슈퍼마이크로와 같은 선도적인 기술 기업들이 인텔의 블랙웰 제품군을 활용한 광범위한 서버 솔루션을 제공할 것으로 예상됩니다. 또한 Aivres, ASRock Rack, ASUS, Eviden, Foxconn, Gigabyte, Inventec, Pegatron, QCT, Wistron, Wiwynn, ZT Systems 등 다른 유명 브랜드도 이러한 고급 서버 옵션을 제공하기 위해 노력했습니다.