카카오 경량AI·전문가 혼합모델 2종 공개
파이낸셜뉴스
2025.07.24 18:12
수정 : 2025.07.24 18:12기사원문
"GPT-4o와 견줄 정도로 고성능"
카카오는 오픈소스 커뮤니티 허깅케이스에 국내 공개 모델 중 최고 성능의 경량 멀티모달 언어모델과 함께 국내 최초로 전문가 혼합 모델(MoE)을 오픈소스로 공개했다고 24일 밝혔다. 이미지 정보 이해 및 지시 이행 능력을 갖춘 경량 △멀티모달 언어모델 '카나나-1.5-v-3b'와 MoE(Mixture of Experts) 언어모델 '카나나-1.5-15.7b-a3b'이다.
'카나나-1.5-v-3b'는 텍스트 뿐만 아니라 이미지 정보도 다루는 멀티모달 언어모델이다.
카카오 측은 '카나나-1.5-v-3b'이 경량 모델임에도 이미지로 표현된 한국어와 영어 문서 이해 능력이 글로벌 멀티모달 언어모델 GPT-4o와 견줄 수 있을 정도로 뛰어나다고 설명했다. 한국어 벤치마크에서 유사 사이즈의 국내외 공개 모델과 비교한 결과 최고 점수를 기록했고, 다양한 영어 벤치마크에서 해외 오픈소스 공개모델과 비교했을 때도 유사한 수준의 성능을 보였다.
wongood@fnnews.com 주원규 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지