본문 바로가기
TREND/인공지능

SK하이닉스와 삼성전자가 각축중인 HBM 시장

by inniable 2024. 4. 10.

SK하이닉스와 삼성전자가 각축중인 HBM 시장

인공지능 시장이 확대되고 GPU시장이 확대되면서 GPU에 탑재되는 HBM(High Bandwidth Memory, 고대역폭메모리) 시장도 급성장하고 있습니다. 2021년 HBM3를 최초 개발한 SK하이닉스는 HBM 분야에서는 삼성전자보다 앞선 위치에 있으며, 삼성전자도 HBM 생산 능력을 확대하며 시장에 뛰어들었습니다. 전체 D램 시장 대비 매출비중은 매우 낮은 편이지만 인공지능 시장의 급성장으로 시장 선점을 위해 두 회사는 각축중에 있습니다. 

 

목차

HBM 시장 전망

HBM 이란?

삼성전자 HBM 생산능력 확대

HBM분야에서 한발 앞서고 있는 SK하이닉스

 

HBM 시장 전망

대만 시장조사업체 트렌드포스에 의하면 2024년 세계 HBM 수요는 290,000,000GB로 2023년 대비 60% 이상 증가하며, 2025년에도 30% 이상 성장할 것으로 예상하였습니다.

시장조사업체 Mordor Intelligence는 HBM 시장 규모를 2024년 25억불에서 2029년 79억불 규모로 성장할 것으로 내다봤습니다.

HBM 시장 규모 예상 / Mordor Intelligence
HBM 시장 규모 예상 / Mordor Intelligence

 

 

HBM 시장을 주도하는 업체는 SK하이닉스와 삼성전자입니다. D램 시장에서 독보적으로 점유율 1위를 차지하는 삼성전자 이지만 HBM은 SK하이닉스가 선두주자입니다. 트렌드포스는 2023년 SK하이닉스, 삼성전자, 마이크론 등 3개사의 HBM 시장점유율을 50%, 40%, 10%로 추정하였습니다.

SK하이닉스는 2021년 HBM3를 세계 최초로 개발하였고, 2023년 양산에 성공했습니다. HBM3는 HBM, HBM2, HBM2E에 이은 4세대 제품입니다. 또, 2024년 4월 세계 최초로 24GB 12단 HBM3 신제품 개발에도 성공하였습니다. 12단 HBM3는 적층된 D램 칩의 개수를 8개(16GB 제품)에서 12개로 늘리며 50% 용량을 늘린 제품입니다. SK하이닉스는 2024년 상반기 5세대 HBM3E 양산과 2026년 6세대 HBM4 양산도 계획하고 있습니다. 

삼성전자 업계 최고 6.4Gbps 성능과 초저전력을 기반으로 하는 HBM3 16GB와 12단 24GB 제품 셈플을 만들어냈고 양산 준비 역시 완료하였습니다. 또 차세대 HBM 제품도 하반기 출시 예정입니다.

다만 HBM 시장의 비중은 전체 D램 시장 대비 1% 미만으로 아직까지는 시장 형성 초기 단계로 평가되고 있습니다. 그럼에도 불구하고 그동안 고성능 컴퓨팅(HPC)과 모바일에 주력했던 삼성전자가 본격적으로 HBM 시장에 뛰어들면서 시장 판세 변화도 전망되고 있습니다.

삼성전자는 올해 4분기까지 HBM 대량 양산 체제를 구축하고, 내년부터는 6세대 HBM 양산도 계획하고 있습니다. 이에 따라 삼성전자 전체 D램 매출에서 HBM의 매출은 2024년 6%에서 2025년 18%까지 확대될 것으로 전망하고 있습니다.

또한, AI 서버에 탑재되는 HBM3의 가격은 기존 D램보다 6 ∼ 7배 높은 가격에 거래되고 향후 5년간 AI 서버 시장이 연평균 25%의 성장이 예상됨에 따라 중장기적으로 삼성전자 D램 수익성 개선 요인이 될 것으로 평가받고 있습니다.

 

 

 

 

 

 

HBM 이란?

고대역폭 메모리(HBM, High Bandwidth Memory)는 인공지능(AI) 시대에 필수적인 반도체 제품입니다. HBM은 여러개의 D램을 수직으로 쌓은 후 실리콘관통전극(TSV) 공정으로 연결한 것입니다. 기존 D램보다 데이터 처리 속도가 혁신적으로 향상되었고 메모리가 차지하는 공간과 전기소모량도 줄어들었습니다. 초기 HBM은 고성능 그래픽 작업을 위해 만들어졌으나 인공지능으로 GPU의 활용 범위가 확대되면서 HBM 시장도 같이 커지고 있습니다.

HBM은 GPU(그래픽처리장치)에 주로 탑재됩니다. CPU는 데이터를 순차적으로 처리하는 반면 게임, 동영상 등 그래픽 연산에 특화된 프로세서인 GPU는 여러 데이터의 동시 처리가 가능한 병렬 연산을 할 수 있기 때문에 인공지능 연산에 활용됩니다. GPU의 강자인 미국 엔비디아가 엄청난 실적을 기록하고 있는 것은 챗GPT 등 AI 열풍 덕분이었습니다. 챗GPT는 대규모 데이터를 학습하기 위해서 1만개 이상의 엔비디아 GPU를 사용한 것으로 알려졌습니다.

 

삼성전자 HBM 생산능력 확대

HBM 생산능력은 D램 칩 적층을 위한 TSV 공정을 확대하는 것이 핵심입니다. 삼성전자는 지난해 말 월 6만장에서 2024년말까지 월 13만장 규모의 HBM용 TSV 생산능력을 갖출 것을 계획하고 있습니다. SK하이닉스의 연말 예상 월 12만장 규모와 미국 마이크론의 연말 예상 월 2만장 수준과 비교하면 D램 3사 중 삼성전자가 가장 공격적으로 HBM 생산능력을 늘리고 있는 것입니다.

HBM 생산능력 확대는 현재 양산중인 HBM3 공급 확대와 2024년 하반기부터 본격 양산할 HBM3E 사업화를 위한 준비 작업입니다. 삼성전자는 2023년 3분기부터 HBM3의 양산을 시작하였고 4분기부터 엔비디아, AMD를 비롯한 주요 GPU 업체의 품질검증을 통과해 공급을 시작했습니다. 이에 지난해 4분기 bit 단위 HBM 판매량은 3분기 대비 40% 이상, 전년 동기 대비 3.5배 규모로 성장했습니다.

HBM의 기술전환 속도가 빨라지고 있어 올해 차세대 제품인 HBM3E는 전체 HBM 시장에서 차지하는 비중이 용량을 기준으로 전체의 50% 수준에 달할 것으로 예상되고 있습니다. HBM은 GPU 제조업체와 대형 데이터센터 운용업체 등 수요처가 한정되어 있고 공급량이 수요에 비해 적기 때문에 차세대 제품이 공급될 경우 제품 전환이 빠르게 일어납니다. D램 공급업체 입장에서는 안정적인 생산능력과 개발 역량으로 시장과 고객 수요에 맞춰 움직이는 것이 중요합니다.

 

** TSV : D램 상층과 하층 칩에 수천 개의 미세한 구멍을 뚫어 전극으로 연결하는 적층 공정

 

 

HBM분야에서 한발 앞서고 있는 SK하이닉스

HBM3E에서도 역시 SK하이닉스가 삼성전자에 비해 한발 앞서 나가고 있습니다. 엔비디아가 올해 2분기 출시예정인 AI 반도체 H200에 공급하는 HBM3E의 양산도 시작하였습니다. 엔비디아는 HBM 수요의 50% 이상을 차지하고 있습니다.

HBM은 D램 회사가 1차 생산을 마친후 엔비디아, AMD 등 AI 반도체 기업들이 GPU와 HBM을 함께 패키징해 완제품 형태로 판매하고 있습니다. 이러한 공급 구조로 엔비디아 등의 고객사 품질 검증을 마친 후 양산이 시작되기 때문에 SK하이닉스가 HBM3E에서도 앞서고 있는 것입니다. 2023년 HBM 분야에서 독보적인 성과를 냈던 SK하이닉스는 삼성전자와 마이크론이 아직 갖추지 못한 생산능력과 수율 및 성능을 고루 갖추고 있다는 것이 업계의 평가입니다. 

 

SK하이닉스가 독자적으로 개발한 MR-MUF(Mass Relflow Molded Underfill) 패키징 공정은 삼성전자와 마이크론과 격차를 내고 있는 핵심입니다.  

 

 

“HBM 시장 1위 우리가 지킨다” 같은 크기로 더 큰 용량을 제공하는, 세계 최초 12단 HBM3 개발 주

뉴스룸은 어드밴스드(Advanced) MR-MUF 등 첨단 기술을 적용해 최고의 가치를 구현한 12단 HBM3 개발진을 만나 이번 제품의 특장점과 개발 비하인드 스토리 그리고 차세대 제품에 대한 포부까지 들어

news.skhynix.co.kr

 

 

 

삼성전자 하이닉스 미래먹거리 AI가속기

삼성전자 하이닉스 미래먹거리 AI가속기 AI가속기는 인공지능과 관련된 특수 목적의 하드웨어를 말합니다. 시장에서는 크게 GPU와 NPU로 구분합니다. 챗GPT 등 초거대 인공지능에 사용되는 AI가속

standstraight.tistory.com

 

반응형