loading

PC.Div.Soft/News

NVIDIA, Tesla V100을 16개 탑재한 GPU 서버 'HGX-2'

나에+ 2018. 5. 31. 23:37
반응형

■ 출처

https://pc.watch.impress.co.jp/docs/news/1124992.html


■ 참조

https://www.nvidia.com/en-us/data-center/hgx/


Tensor 연산 성능은 2PFLOPS라고(...)합니다.


NVIDIA가 30이(대만 시간), GTX Taiwan에서 GPU 서버 플랫폼 'HGX-2'를 발표했습니다. AI 및 고성능 컴퓨팅(HPC)용으로 첫 '단일 컴퓨팅 플랫폼' 제품이라고 하네요.


기존 HGX-1에서는 Tesla V100을 8개 탑재했지만, HGX-2에서는 Tesla V100 16개를 12개의 NVSwitch로 상호 연결해 2.4TB/s의 대역폭을 실현한 게 특징이라고 합니다. CUDA 코어 수는 총 81,920개, Tensor 코어 수는 10,240개, GPU 메모리 용량은 512GB에 달해 단정밀도 부동 소수점 연산 성능은 250TFLOPS, 배정밀도는 125TFLOPS, Tensor 연산은 2PFLOPS의 성능을 낸다고 합니다. 거기에 반정밀도 및 INT8의 연산도 지원한다고 하네요.


Xeon Gold 6140(18코어/26 스레드, 2.3GHz 듀얼 소켓)과 비교해 300배의 성능을 낸다는 점을 강조했으며, AI 학습 벤치마크 'ResNet-50'에서 초당 15,500점의 처리 속도를 보여주었다고 합니다. 또한 본 제품은 CPU를 탑재한 게 아니기에 단독으로 작동하는 것은 아니라고 하며 CPU 호스트 노드와의 연결은 PCI Express x16 x4로 한다고 합니다.


Lenovo, QCT, Supermicro, Wiwynn, Foxconn, Inventec, Quanta, Wistron등의 업체에서 HGX-2 기반 시스템을 2018년 내에 출시할 예정이라고 하며 Tesla V100 16개 구성만이 아니라 8개 구성 역시 가능하다고 합니다.


반응형