산업 중소기업

"온디바이스 AI 최적화 작업 기간 절반으로 확 줄여"[C리즈]

신지민 기자

파이낸셜뉴스

입력 2025.12.07 18:58

수정 2025.12.07 18:57

이재호 옵트에이아이 대표
기기 바뀔 때마다 새로 개발 부담
NPU 최적화·풀스택 역량 독보적
한화에어로 등 대기업이 주고객
사진=신지민 기자
사진=신지민 기자

"하드웨어가 바뀌는 순간, 개발이 다시 시작됩니다. 산업이 부담하는 가장 큰 비용입니다."

7일 서울 강서구 마곡동에서 만난 이재호 옵트에이아이 대표(사진)는 온디바이스 인공지능(AI)이 풀어야 할 핵심 과제를 이렇게 규정했다. 클라우드 중심이던 AI 운영 환경이 기기 끝단으로 이동하면서, 기업들은 기기마다 다른 칩셋과 운영체제(OS)를 감당해야 한다는 것이다.

옵트에이아이는 온디바이스 AI 환경을 위한 소프트웨어 플랫폼 기업이다.

모델 설계 및 변환, 압축, 배포를 자동화하는 'HW aware AutoML' 기술로 다양한 디바이스에서 동일한 모델이 동작하도록 최적화한다. LG전자·LG유플러스·한화에어로스페이스 등이 주요 고객사다.

이 대표는 온디바이스 AI의 필요성을 "클라우드만으로는 해결할 수 없는 현실의 벽"에서 찾는다. 클라우드는 대규모 연산이 가능하지만 막대한 전력·부동산·통신 비용과 데이터 이동 과정의 보안 노출 부담이 커지고 있다.

문제는 온디바이스로의 전환이 단순한 배포 문제가 아니라는 점이다. 그는 "디바이스는 추론 전용 환경이기 때문에 범용성이 크게 떨어진다"며 "클라우드에서 만든 모델을 그대로 넣으면 동작하지 않는 경우가 대부분"이라고 설명했다.

가장 큰 난관은 '하드웨어 다양성'이다. 기업들은 공급망 리스크나 원가 절감, 제품 라인업 확대 때문에 매년 다른 칩셋을 채택한다. 이때마다 기존 모델은 호환되지 않아 개발 공수가 다시 들어간다. 기업 입장에서는 비용 부담이 크다.

옵트에이아이는 이 과정을 소프트웨어 중심으로 풀스택 자동화했다.

그는 "고객사가 6개월 걸릴 작업을 3개월 안에 끝낸다"며 "서비스 출시 속도 자체가 달라진다"고 말했다.

성과도 나오고 있다. LG유플러스 및 LG AI 연구원과 개발한 '엑사원 3.5 기반 온디바이스 소형언어모델(sLM)'은 스마트폰 내부 신경망처리장치(NPU)에서 직접 추론을 수행해 전력 모소량은 78%, 모델 크기는 82% 줄였다. 핸드셋 발열과 지연 문제도 해결했다.

옵트에이아이는 표준화되지 않은 시장에서 소프트웨어 플랫폼 기반의 사실상 표준을 정립하는 것이 목표다. 그는 "하드웨어는 앞으로도 표준화되기 어렵다"며 "소프트웨어 플랫폼이 기준이 돼야 한다"고 말했다.


향후 NPU 전용 대형언어모델(LLM) 및 sLM 사업화 전략도 구상 중이다. 그는 "지금 시장의 파운데이션 모델은 대부분 클라우드 기준"이라며 "온디바이스, 특히 NPU 최적화를 전제로 한 소형 모델을 만들면 고객사의 비용 구조는 완전히 달라질 것"이라고 전망했다.
이어 "3년 안에 라이선스 비지니스 전환과 플랫폼 안정화를 이뤄 기업공개(IPO)도 검토할 수 있다"고 덧붙였다.

jimnn@fnnews.com 신지민 기자