초거대·산업특화… 컷오프 앞둔 '국대AI' 기술력 부각

파이낸셜뉴스       2026.01.08 18:28   수정 : 2026.01.08 21:09기사원문
이르면 내주 5개팀 중 1곳 탈락
SKT 매개변수 5190억개 강조
팀네이버 인프라 경쟁력 전면에

독자 AI 파운데이션 모델(국가대표 AI) 프로젝트 1차 컷오프가 다가오면서 참여 기업들의 막판 스퍼트가 거세지고 있다. 정부는 이르면 다음 주 중 국가 대표 AI경쟁에 참여중인 5개 컨소시엄(SKT·네이버·LG AI연구원·NC AI·업스테이지) 중 1곳을 떨어뜨릴 예정이다. 주요 컨소시엄들은 초거대 GPU 인프라 구축, 글로벌 석학 영입, 프런티어급 모델 공개 등 그간 성과를 연이어 공개하며 기술 경쟁력과 완성도를 적극 부각하고 있다.

8일 업계에 따르면 SKT는 매개변수 519B(5190억 개) 규모의 초거대 모델 '에이닷엑스 케이원'(A.X K1)을 앞세웠다. 다른 정예팀 대비 최소 두 배 이상 큰 모델 규모로, 짧은 개발 기간과 제한된 GPU 자원 속에서도 글로벌 모델 대비 경쟁력 있는 성능을 확보했다는 설명이다. 특히 주요 벤치마크에서 딥시크-V3.1 등 세계적으로 많이 활용되는 초거대 모델과 유사하거나 더 높은 성능을 달성한 상황이다.

팀네이버는 엔비디아 차세대 GPU 'B200(블랙웰)' 4000장으로 구성된 국내 최대 규모 AI 컴퓨팅 클러스터 구축을 완료하며 인프라 경쟁력을 전면에 내세웠다. 720억 파라미터(72B) 모델 학습 기준으로 기존 A100 인프라 대비 학습 기간을 약 18개월에서 1.5개월로 단축할 수 있어, 개발 사이클이 최대 12배 빨라질 것으로 기대된다.

LG AI연구원은 매개변수 236B 규모의 프런티어급 'K-엑사원'을 공개하며 '경제성 있는 초거대 AI'를 강조했다. 하이브리드 어텐션 기술을 적용해 메모리 요구량과 연산량을 약 70% 줄이면서도 성능은 유지했다. 고가 GPU 대신 A100급 환경에서도 구동 가능하도록 설계한 것도 강점이다.

업스테이지는 글로벌 톱티어 연구진과 산업 파트너를 동시에 끌어들이며 '연합형 전략'을 강화했다. 딥러닝 분야 세계적 석학인 스탠퍼드대 최예진 교수와 뉴욕대 조경현 교수가 컨소시엄에 합류해 모델 연구를 고도화한다. 업스테이지는 앞서 공개한 '솔라 오픈 100B'의 성과를 발판으로, 프런티어급 모델 완성도와 산업 현장 AX 확산을 동시에 노린다는 전략이다.

NC AI는 국가 주력 산업을 겨냥한 산업특화 파운데이션 모델 'VAETKI(배키)'를 공개하며 차별화를 시도했다. 100B급 배키 모델은 한국어 이해·추론·지시 이행 등에서 글로벌 SOTA 오픈소스 모델과 대등하거나 상회하는 성능을 기록했다는 것이 회사 측 설명이다.

1차 컷오프를 앞두고 AI 파운데이션 모델 독자성 논란이 곳곳에서 터져나왔다. 최근 한 AI스타트업 대표가 업스테이지에 대해 중국 모델 유사성 논란을 제기했으나 업스테이지측이 공개검증을 한 후 의혹을 제기한 인물이 공개사과하며 일단락 됐다.
네이버 정예팀이 만든 AI모델에 대해서도 중국 모델의 인코더를 가져다 썼다는 주장이 나왔으나 네이버측은 "외부 인코더를 썼을 뿐 '두뇌'에 해당하는 파운데이션 모델은 100% '프롬 스크래치(From Scrach) 모델'이라고 반박했다. SKT도 'A.X-K1'을 두고 딥시크 V3와 유사한 MLA·MoE 아키텍처와 학습 인프라 운용 방식이 적용됐다는 지적이 나왔다. 이에 대해 SKT는 모델을 처음부터 만든 방식과는 무관한 실행 코드 문제라고 선을 그었다.

yjjoe@fnnews.com 조윤주 장민권 기자

Hot 포토

많이 본 뉴스