이강욱 부사장 '이종집적 글로벌 서밋 2024'서 세션 발표

 

이강욱 SK하이닉스 부사장(PKG개발 담당)은 3일 대만 타이베이 난강전시장에서 열린 '이종집적 글로벌 서밋(Heterogeneous Integration Global Summit) 2024'에서 “고대역폭 메모리(HBM) 세대가 발전하며 훈련, 추론 인공지능(AI) 서버에 탑재되는 평균 채택 숫자도 더 늘어날 것”이라고 밝혔다.

이 부사장은 이날 'AI 시대를 위한 HBM과 어드밴스드 패키징 기술'이란 주제로 한 세션 발표에서 이같이 밝혔다.

이어 “AI와 고성능 컴퓨팅(HPC) 시대에는 데이터 트래픽(Traffic)이 급증하며 메모리 대역폭 향상에 대한 요구가 커지고 있다”면서 “메모리 성능에서 오는 시스템 병목 현상을 극복하기 위한 현존 최고 사양의 D램은 HBM이며, 이는 AI 시스템의 훈련, 추론에도 최적의 제품”이라고 설명했다.

또 “현재의 8단, 12단 HBM3E는 초당 1.18TB 이상의 데이터를 처리하며 최대 36GB의 용량을 지원하는데, HBM4는 12, 16단으로 공급되며 용량은 최대 48GB까지, 데이터 처리 속도는 초당 1.65TB 이상으로 성능이 발전했다”면서 “HBM4부터는 베이스 다이에 로직 공정을 적용함으로써, 성능 및 에너지 효율 향상을 기대하고 있다”고 전했다.

이 부사장은 또 “이러한 HBM 성능 발전에 따라 HBM에 대한 수요도 AI 시장에서 더 늘어날 것으로 전망된다”면서 “2023년부터 2032년까지 생성형 AI 시장은 연평균 27% 성장할 것으로 예상되는데, HBM 시장은 2022년부터 2025년까지 이미 연평균 109%의 성장이 예상된다”고 말했다.

HBM 분야 리더인 SK하이닉스는 2015년 업계 최초로 HBM 제품을 양산한 후, 연이어 최고 성능의 HBM 제품들을 세계 최초로 출시하면서 업계를 선도하고 있다. 2025년에는 HBM4 12단 제품도 출시할 예정이다.

특히 SK하이닉스는 독자적으로 개발한 혁신적인 패키징 기술을 통해 HBM 제품의 에너지 효율 및 열 방출(방열 성능) 측면에서 압도적인 제품 경쟁력을 갖추고 있다. /김재옥기자

저작권자 © 충청일보 무단전재 및 재배포 금지