산업 산업일반

인텔·소프트뱅크 '연합'…'HBM 대체칩' 내놓는다

뉴시스

입력 2025.06.02 10:28

수정 2025.06.02 10:28

日소프트뱅크, 美인텔과 합작…AI용 신형 메모리 개발 착수 자국 AI 메모리 자급화 시도…HBM 대비 전력 효율 50%↑ AI 산업의 '필수재' HBM, 대체 위협에도 지배력 굳건 전망
[서울=뉴시스]SK하이닉스가 23일(현지 시간) 미국 캘리포니아주 산타클라라에서 개최된 'TSMC 2025 테크놀로지 심포지엄'에 참가해 6세대 HBM(고대역폭메모리) 'HBM4' 등 핵심 메모리 제품군을 공개했다. (사진=SK하이닉스 제공) photo@newsis.com *재판매 및 DB 금지
[서울=뉴시스]SK하이닉스가 23일(현지 시간) 미국 캘리포니아주 산타클라라에서 개최된 'TSMC 2025 테크놀로지 심포지엄'에 참가해 6세대 HBM(고대역폭메모리) 'HBM4' 등 핵심 메모리 제품군을 공개했다. (사진=SK하이닉스 제공) photo@newsis.com *재판매 및 DB 금지
[서울=뉴시스]이인준 기자 = 일본 소프트뱅크가 미국 인텔과 손잡고 인공지능(AI)용 신형 메모리 반도체 개발에 나섰다. 치열한 'AI 메모리' 패권 경쟁 구도에서 일본이 HBM(고대역폭메모리)의 새로운 적수로 부상할 지 관심이 커진다.

2일 업계에 따르면 소프트뱅크와 인텔은 새로운 적층형 메모리를 개발하기 위한 회사인 '사이메모리(Saimemory)'를 설립했다. 양사의 이번 협력은 현재 HBM이 주도하는 AI용 메모리 시장에 도전장을 내민 것이어서 주목된다.

D램 여러 개를 수직으로 쌓는 방식의 현 HBM은 AI 반도체용 메모리 시장의 80% 이상을 점유하고 있는 고부가가치 기술이다.

가격이 비쌀 뿐 아니라, 부품을 구하기도 어렵다. 제조 난도가 높아 현재 제작 가능한 업체 수는 전 세계에서 삼성전자, SK하이닉스, 마이크론 등 3곳뿐이다.

소프트뱅크는 사이메모리에 30억엔(290억원) 출자를 결정했다. 사이메모리는 인텔, 도쿄대 등이 보유한 특허를 기반으로, AI 연산 능력의 핵심인 새로운 형태의 메모리를 개발하겠다는 계획이다.

특히 '전기 먹는 하마'로 통하는 AI 데이터센터의 전력 소모 이슈에 대응해 저전력 AI 메모리를 개발하는 것이 목표다. 아직 구체적인 방법은 공개되지 않았지만, HBM 대비 전력 효율성을 50% 높인다는 계획이다.

이 두 업체는 오는 2027년까지 프로토타입(시제품)을 완성하고 2030년 전에 상용화 제품 개발에 나설 예정이다.

사이메모리는 일본 내 AI 데이터센터 구축에 필요한 메모리를 자급화한다는 목표를 제시한 것으로 알려졌다. 업계에선 한때 전 세계 메모리 시장을 평정했던 일본이 다시 메모리 산업에 뛰어든 점에 주목한다.

일본 메모리 산업은 1980년대 전 세계 공급량의 70%를 장악했으나, 현재는 한국, 미국, 대만에 자리를 내줬다. 낸드 플래시 메모리(키오시아)로 명맥을 유지하고 있다.

AI용 메모리가 메모리 산업의 흐름을 주도하는 상황에서 일본이 메모리 산업에서 재기를 노리고 있다는 평가다. 사이메모리의 최대 출자자가 될 소프트뱅크는 일본 정부에 자금 지원 요청도 검토 중인 것으로 전해졌다.

[서울=뉴시스] 최동준 기자 = 손정의 소프트뱅크 그룹 회장이 4일 오후 서울 서초구 삼성전자 서초사옥에서 이재용 삼성전자 회장, 샘 올트먼 오픈AI 최고경영자(CEO)와 회동을 마친 후 취재진 질문에 답변하고 있다. 2025.02.04. photocdj@newsis.com
[서울=뉴시스] 최동준 기자 = 손정의 소프트뱅크 그룹 회장이 4일 오후 서울 서초구 삼성전자 서초사옥에서 이재용 삼성전자 회장, 샘 올트먼 오픈AI 최고경영자(CEO)와 회동을 마친 후 취재진 질문에 답변하고 있다. 2025.02.04. photocdj@newsis.com

◆AI의 중심에 메모리…HBM 대적할 상대는 누구
최근 HBM은 현존 최고 성능의 메모리지만, HBM을 대체하려는 움직임이 곳곳에서 나오고 있다. 비싸고 구하기 어려운 HBM 대신 LPDDR(저전력 D램)이나 GDDR(그래픽용 D램) 등을 활용해 AI 반도체를 개발하려는 시도다.

미중 갈등도 변수로 작용하고 있다. 엔비디아도 미국 수출 통제의 영향으로 향후 몇 달 내에 중국 고객들을 위한 수정된 AI 칩 출하를 시작할 예정이다.

특히 이 AI 반도체엔 AI 및 슈퍼컴퓨팅에 최적화된 HBM가 탑재되진 않을 것으로 알려졌다. GDDR7(그래픽용 D램) 적용이 유력하다.

다만 HBM의 AI 메모리 시장 지배력은 수년 내 바뀌기 어렵다는 목소리도 들린다. 이미 HBM 업계 1위인 SK하이닉스의 경우 올해 물량이 완판됐고, 내년 물량도 올 상반기 중 고객사와 공급 협의를 끝낼 예정이다.

특히 고성능 AI 서버를 구축하기 위한 빅테크(기술 대기업)들의 경쟁이 지속되면서, 더 큰 용량과 더 빠른 속도의 HBM 중요성이 갈수록 높아지고 있다.

엔비디아도 최근 열린 실적 발표회에서 AI 반도체 성능 개선에 대한 기대감을 나타냈다.
엔비디아는 올 하반기 차세대 슈퍼칩 'GB300'를 출시할 예정인데, 여기 들어가는 그래픽처리장치(GPU) 'B300'의 기존 대비 차별점으로 '메모리 성능'을 꼽았다.

엔비디아 관계자는 "B300 GPU는 50% 더 많은 HBM을 탑재해 B200 대비 AI 연산 성능이 50% 더 좋아진다"고 강조했다.
AI 연산을 더 빠르게 처리하려면, HBM 같은 고성능 메모리가 당분간 계속 더 필요하다는 것이다.

☞공감언론 뉴시스 ijoinon@newsis.com <저작권자ⓒ 공감언론 뉴시스통신사. 무단전재-재배포 금지.>