
[더구루=정예린 기자] 엔비디아의 최신 인공지능(AI) 가속기 'HGX B200'가 SK하이닉스와 TSMC의 기술력으로 완성됐다는 사실이 처음으로 확인됐다. 첨단 반도체 경쟁에서 고대역폭메모리(HBM)과 후공정 기술의 중요성이 커지면서, 3사 간 동맹이 더욱 공고해질 전망이다.
15일 글로벌 반도체 분석 업체 '테크인사이츠(TechInsights)'에 따르면 HGX B200에 탑재된 GB100 그래픽처리장치(GPU)는 SK하이닉스가 공급한 4세대 HBM 제품 'HBM3E'로 구성됐다. 또 TSMC의 첨단 후공정 기술 '칩 온 웨이퍼 온 서브 스트레이트(CoWoS)-L'이 처음으로 상용화됐다.
엔비디아는 GB100 GPU의 AI와 고성능컴퓨팅(HPC) 성능을 극대화하기 위해 SK하이닉스의 HBM3E를 채택했다. HBM3E는 전작 대비 메모리 용량을 50% 향상시켜, 대규모 데이터셋을 처리하는 속도와 효율성을 크게 개선했다. 이로 인해 AI와 데이터 센터에서 요구하는 높은 처리 성능을 실현할 수 있다.
TSMC의 CoWoS-L 기술은 두 개의 GPU 칩을 초고속으로 연결, AI 연산 성능을 크게 향상시킨다. 특히 칩 간 낮은 지연 시간과 높은 대역폭을 지원해 대규모 AI 모델 학습에 최적화된 성능을 제공한다. 두 개의 GPU 다이를 하나의 패키지로 통합해 전력 소모를 최소화하면서도 성능을 극대화시킨다.
CoWoS-L 설계는 리티클(Reticle) 기술을 기반으로 하며, 리티클은 두 개의 TSMC 실리콘 다이를 패키지 내에서 정확하게 위치시키는 데 중요한 역할을 한다. 이를 통해 GPU 칩 다이가 정확하게 결합돼 고속 연결이 가능해지고, CoWoS-L 기술이 이를 실현한다.
HGX B200은 8개의 GB100 GPU를 연결해 x86 기반 생성적 AI 플랫폼을 지원하는 서버 보드다. NVIDIA의 퀀텀-2 인피니밴드(Quantum-2 InfiniBand)와 스펙트럼-X 이더넷(Spectrum-X Ethernet) 네트워크 플랫폼을 통해 최대 초당 400Gb(기가비트)의 데이터 전송 속도를 지원한다. AI 모델 훈련과 추론 속도가 뛰어나 데이터 센터와 클라우드 서비스 분야에 적합하다.
캐머런 맥나이트-맥닐 테크인사이츠 프로세스 분석가는 "블랙웰 제품군은 엔비디아가 '생성적 AI' 시대를 위해 개발한 세계에서 가장 진보된 칩셋"이라고 평가했다.