IT IT일반

'AI전략 선회' LLM보다 sLLM ...비용 줄이고 특화모델 집중

임수빈 기자

파이낸셜뉴스

입력 2024.04.28 15:33

수정 2024.04.28 15:41

마이크로소프트 CI. 마이크로소프트 제공
마이크로소프트 CI. 마이크로소프트 제공


최신 경량화 AI 모델 현황
회사 내용
마이크로소프트(MS) 파이-3 미니 출시(2024년 4월 23일). 파라미터 규모 38억개, 향후 파라미터 규모 70억개의 ‘파이-3 스몰‘이나 140억개의 ‘파이-3 미디엄‘도 출시할 예정.
구글 젬마 출시(2024년 2월). 파라미터 규모 20억, 70억개 두 버전이며, 오픈소스로 출시.
메타 라마3 출시(2024년 4월 18일). 파라미터 규모 3개 버전 선보였는데, 이중 챗봇 제작 등에 쓰이는 80억개 소형 모델 포함. 오픈소스로 공개.
네이버 초대규모 AI ‘하이퍼클로바X’ 경량화 신규 모델 ‘대시(HCX-DASH)’ 공개(2024년 4월 25일). 기존 모델보다 저렴한 비용, 비교적 단순한 업무에 적합.
(각 사)

[파이낸셜뉴스] 자체 거대언어모델(LLM) 개발에 집중하던 인공지능(AI) 개발사들이 전략을 바꾸고 있다.

매개변수(파라미터)가 훨씬 적은 소형 거대언어모델(sLLM) 출시하고 AI 기반의 실제 서비스를 출시하는 데 집중하고 있다. 국내 주요 플랫폼사들도 이 같은 흐름에 맞춰 경량화 LLM을 내놓는가 하면, 비용 문제를 해결하기 위해 글로벌 빅테크와 손잡고 생태계를 확장하는 데 힘쓰고 있다.

산업별 특화모델에 적합

28일 업계에 따르면 주요 AI 모델 개발사들은 sLLM을 잇따라 선보이고 있다. 마이크로소프트(MS)는 소형언어모델 '파이-3 미니'를 출시한다. 파이-3 미니의 파라미터는 38억(3.8B)개로, 향후 출시될 매개변수 '파이-3 스몰(7B)'이나 '파이-3 미디엄(14B)'보다도 규모가 작다.
구글도 지난 2월 간단한 챗봇이나 언어 관련 작업에 유용한 파라미터 젬마 2B와 7B를 출시했다. 메타는 라마3를 출시하면서 파라미터 70B 모델과 함께 챗봇과 코딩 지원에 사용되는 소형 모델(8B)도 선보인 바 있다.

파라미터는 AI 모델이 얼마나 많은 복잡한 명령어를 이해할 수 있는 지를 나타낸다. 통상 파라미터가 1000억개 이하인 모델이 sLLM로 분류된다. 파라미터 개수가 많을수록 성능이 좋다고 평가받지만, 최근 기술 발달로 sLLM도 LLM 못지 않은 성능을 내며 비용도 절약할 수 있다는 점에서 많은 기업들이 주목하고 있다. 산업 특화 모델을 만들기도 적합하고 연산 작업이 적어 스마트폰과 같은 개인용 기기에서도 작동해 수요가 많을 것으로 전망된다.

업계 관계자는 "범용인공지능(AGI)를 목표로 하는 게 아니라면 sLLM에 주목할 수밖에 없다. LLM을 구축하고 구동하려면 비용이 너무 많이 들기 때문"이라며 "AI B2B(기업간거래) 시장에서는 특히 '최소 비용, 최고 성능'을 내는 게 중요하기 때문에 경량화 모델 출시가 많아질 것"이라고 설명했다.

비용 부담에 sLLM 출시

국내 기업들도 sLLM를 개발해 왔다. AI 스타트업인 업스테이지는 자체 sLLM '솔라 미니'를 아마존웹서비스(AWS)를 통해 출시한 바 있다. 솔트룩스는 AI 파운데이션 모델 '루시아GPT'를 발표했는데, 루시아GPT의 파라미터 수는 70억~500억 개까지 다양하다.

네이버는 LLM 개발에 주력하되, 비용 절감을 위해 쓰임에 따라 다양한 모델을 출시하고 있다. AI 개발 도구 '클로바 스튜디오'에 자체 초거대 AI 모델인 ‘하이퍼클로바X’의 경량화 버전 격인 ‘대시(HCX-DASH)’를 선보였다. HCX-DASH는 문장 생성이나 요약과 같은 비교적 단순한 업무부터 보고서를 작성하거나 맞춤형 챗봇을 구현하는 데 적합한 모델이다. 특히 고객사는 클로바 스튜디오에서 기존 대비 5분의 1 가격으로 신규 모델을 이용할 수 있다.

향후 네이버는 더 복잡한 작업에 맞는 모델도 출시, 하이퍼클로바X 라인업을 구축할 예정이다.
아울러 인텔의 AI 가속기 칩인 ‘가우디’를 기반으로 AI칩 소프트웨어 생태계를 다양화하고 있다. LLM 모델 운영 시 엔비디아 그래픽처리장치(GPU) 비용에 대한 부담도 커지는 만큼 다양한 대안을 찾기 위해서다.
네이버는 삼성전자와도 AI 추론 칩 '마하1'을 개발 중이다. soup@fnnews.com 임수빈 기자

fnSurvey