퀄컴, 엔비디아·AMD에 도전장.. 데이터센터용 AI 칩 'AI200'·'AI250' 공개

파이낸셜뉴스       2025.10.28 16:17   수정 : 2025.10.28 16:17기사원문



퀄컴 테크놀로지스는 데이터센터용 차세대 인공지능(AI) 추론 솔루션 'AI200'과 'AI250'을 공개했다고 28일 밝혔다.

퀄컴 관계자는 "AI200·AI250은 LLM과 멀티모달 모델(LMM) 등 다양한 AI 워크로드 추론 처리에 최적화한 제품"이라며 "뛰어난 메모리 용량과 효율성을 바탕으로 데이터센터 내 생성형 AI 추론을 와트당 TCO 기준 업계 최고 수준"이라고 말했다.

퀄컴AI200은 대규모 언어모델(LLM) 및 멀티모달모델(LMM) 추론을 비롯한 다양한 AI 워크로드를 위해 총소유비용(TCO)을 최소화하고 성능을 최적화하도록 설계된 랙 수준 AI 추론 전용 솔루션이다.

AI200은 카드당 768GB LPDDR 메모리를 지원해 더 높은 메모리 용량과 비용 효율성을 동시에 실현하며 대규모 AI 추론 환경에서 탁월한 확장성과 유연성을 제공한다.

퀄컴AI250은 근접 메모리 컴퓨팅 기반의 혁신적인 메모리 아키텍처를 새롭게 도입해 메모리 대역폭을 10배 이상 향상시키고 전력 소모를 획기적으로 절감함으로써 AI 추론 워크로드의 효율성과 성능을 세대를 뛰어넘는 수준으로 끌어올렸다. 솔루션은 하드웨어 자원을 보다 효율적으로 활용할 수 있는 분리형 방식의 추론 구조를 지원해 고객의 성능 및 비용 요구사항을 동시에 충족시킨다.

퀄컴 AI200 및 AI250 솔루션 모두 열 효율성을 위한 직접 액체 냉각 방식, 확장성을 위한PCle 및 이더넷을 지원한다.
또한 보안이 강화된 AI 워크로드 처리를 위한 기밀 컴퓨팅을 장착했으며 랙 단위 전력 소비는 160kW 수준이다.

AI200은 내년, AI250은 내후년 상용화될 예정이다.

두르가 말라디 퀄컴 테크놀로지스 수석부사장 겸 데이터센터 본부장은 "우수한 TCO와 보안 체계에 개방형 생태계와도 연결된다"며 "기업들이 보다 빠르고 유연하게 생성형 AI를 도입할 수 있을 것"이라고 말했다.

solidkjy@fnnews.com 구자윤 기자

Hot 포토

많이 본 뉴스