엔비디아 AI 가속기 'HGX B200', SK하이닉스·TSMC 기술력으로 '완성'

2025.04.15 16:19:57

테크인사이츠, HGX B200 분해 결과 발표
SK하이닉스 HBM3E·TSMC CoWoS-L 기술 접목

[더구루=정예린 기자] 엔비디아의 최신 인공지능(AI) 가속기 'HGX B200'가 SK하이닉스와 TSMC의 기술력으로 완성됐다는 사실이 처음으로 확인됐다. 첨단 반도체 경쟁에서 고대역폭메모리(HBM)과 후공정 기술의 중요성이 커지면서, 3사 간 동맹이 더욱 공고해질 전망이다.

 

15일 글로벌 반도체 분석 업체 '테크인사이츠(TechInsights)'에 따르면 HGX B200에 탑재된 GB100 그래픽처리장치(GPU)는 SK하이닉스가 공급한 4세대 HBM 제품 'HBM3E'로 구성됐다. 또 TSMC의 첨단 후공정 기술 '칩 온 웨이퍼 온 서브 스트레이트(CoWoS)-L'이 처음으로 상용화됐다. 

 

엔비디아는 GB100 GPU의 AI와 고성능컴퓨팅(HPC) 성능을 극대화하기 위해 SK하이닉스의 HBM3E를 채택했다. HBM3E는 전작 대비 메모리 용량을 50% 향상시켜, 대규모 데이터셋을 처리하는 속도와 효율성을 크게 개선했다. 이로 인해 AI와 데이터 센터에서 요구하는 높은 처리 성능을 실현할 수 있다.

 

TSMC의 CoWoS-L 기술은 두 개의 GPU 칩을 초고속으로 연결, AI 연산 성능을 크게 향상시킨다. 특히 칩 간 낮은 지연 시간과 높은 대역폭을 지원해 대규모 AI 모델 학습에 최적화된 성능을 제공한다. 두 개의 GPU 다이를 하나의 패키지로 통합해 전력 소모를 최소화하면서도 성능을 극대화시킨다. 

 

CoWoS-L 설계는 리티클(Reticle) 기술을 기반으로 하며, 리티클은 두 개의 TSMC 실리콘 다이를 패키지 내에서 정확하게 위치시키는 데 중요한 역할을 한다. 이를 통해 GPU 칩 다이가 정확하게 결합돼 고속 연결이 가능해지고, CoWoS-L 기술이 이를 실현한다.

 

HGX B200은 8개의 GB100 GPU를 연결해 x86 기반 생성적 AI 플랫폼을 지원하는 서버 보드다. NVIDIA의 퀀텀-2 인피니밴드(Quantum-2 InfiniBand)와 스펙트럼-X 이더넷(Spectrum-X Ethernet) 네트워크 플랫폼을 통해 최대 초당 400Gb(기가비트)의 데이터 전송 속도를 지원한다. AI 모델 훈련과 추론 속도가 뛰어나 데이터 센터와 클라우드 서비스 분야에 적합하다. 

 

캐머런 맥나이트-맥닐 테크인사이츠 프로세스 분석가는 "블랙웰 제품군은 엔비디아가 '생성적 AI' 시대를 위해 개발한 세계에서 가장 진보된 칩셋"이라고 평가했다. 

정예린 기자 yljung@theguru.co.kr
Copyright © 2019 THE GURU. All rights reserved.












발행소: 서울시 영등포구 여의나루로 81 한마루빌딩 4층 | 등록번호 : 서울 아 05006 | 등록일 : 2018-03-06 | 발행일 : 2018-03-06 대표전화 : 02-6094-1236 | 팩스 : 02-6094-1237 | 제호 : 더구루(THE GURU) | 발행인·편집인 : 윤정남 THE GURU 모든 콘텐츠(영상·기사·사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다. Copyright © 2019 THE GURU. All rights reserved. mail to theaclip@theguru.co.kr