LG AI 연구원 인도 AI 정상회의 참고…글로벌 AI 거버넌스 논의 주도
파이낸셜뉴스
2026.02.22 11:21
수정 : 2026.02.22 11:16기사원문
LG AI연구원, 유네스코와 유엔 인권최고대표사무소
공동 주관 행사서 韓 대표 기업으로 AI 거버넌스 논의
[파이낸셜뉴스] LG가 인공지능(AI) 기술 확산에 따른 규제·윤리 리스크에 선제 대응하기 위해 국제 기준에 맞춘 '준법(컴플라이언스) 경영'을 강화한다. 구광모 ㈜LG 회장이 지난해 주주총회에서 "컴플라이언스는 기업 성장과 발전의 핵심 인프라"라고 강조한 이후, LG는 신뢰 있는 AI 거버넌스(생태계) 구축을 그룹 차원의 전략 과제로 구체화하는 모습이다. 이러한 기조 속에 LG AI연구원은 최근 인도에서 열린 글로벌 AI 정상회의에서 범용 AI 위험분류체계 한국판(K-AUT)을 공개하고, 책임 있는 AI 생태계 구축을 위한 실행 성과를 국제사회에 공유했다.
LG AI연구원은 지난 20일(현지시간) 인도 뉴델리 바라트 만다팜에서 열린 '인도 AI 정상회의'에 참가해 책임 있는 AI 생태계 구축을 위한 글로벌 협력 방안과 실행 성과를 공유했다고 22일 밝혔다. LG AI연구원은 서울과 파리에 이어 올해 인도까지 3차례 연속 ‘AI 정상회의’에 초청받아 국내 AI 업계의 목소리를 전달하며, 글로벌 AI 거버넌스 논의를 주도하는 대표 기업으로서 입지를 공고히 하고 있다.
범용 AI 위험분류체계 한국판은 잠재적 위험을 △인류 보편적 가치 △사회 안전 △한국적 특수성 △미래 위험 등 4개 핵심 영역, 226개 세부 위험 항목으로 구성했다. 항목별 5가지 구체적 판별 기준이 있어 하나의 위반 사항만 발생해도 AI가 부적절한 응답을 했다고 분류한다.
LG AI연구원은 새로운 위험분류체계를 단순한 가이드라인이 아닌 AI 모델과 AI 서비스의 안전성을 검증하고 강화하는 도구로 개발해 실제 LG의 AI 파운데이션 모델인 엑사원의 안전성 검증에 활용했고, 그 결과를 투명하게 공개하고 있다. 또 한국적 특수성 부분은 각 국가 및 지역의 고유한 특수성을 반영하는 위험 항목으로 대체할 수 있도록 설계해 향후 다른 국가와 지역으로 확장 적용할 수 있도록 했다.
현장에 참석한 페기 힉 유엔 인권최고대표사무소 국장은 "LG가 보편적 인권 가치를 토대로 하면서도 특정 사회와 문화의 맥락을 반영할 수 있는 접근 방식을 선보인 것은 우리가 바라는 방향과 정확히 맞닿아 있다"며 "원칙을 실제 현장에 적용할 수 있는 실용적 도구로 만들고, 그 경험을 다른 국가와 지역이 활용할 수 있도록 공유하는 것이야말로 지금, 이 시점에 반드시 필요한 일"이라고 강조했다.
LG AI연구원은 오는 5월 글로벌 공개를 앞둔 ‘AI 윤리 MOOC(Massive Open Online Course) 프로젝트’도 소개했다. 해당 프로그램은 LG AI연구원과 유네스코가 추진 중인 글로벌 프로젝트로 전 세계 AI 전문가와 연구자, 정책 입안자를 대상으로 AI 기술을 올바르게 개발하고 활용하는 모범 사례를 발굴하고 교육 프로그램을 개발해 제공함으로써 공공 및 민간 분야의 AI 윤리 역량을 강화하기 위한 프로젝트다.
이를 위해 LG AI연구원은 독자적으로 개발한 윤리영향평가와 데이터 컴플라이언스 AI 에이전트 등 실전 운영 노하우와 AI 기술들을 투명하게 공개했다. 또 전 세계 39개국 450여 명의 지원자 중 10명의 글로벌 전문가를 선발해 AI 윤리의 기초부터 안전성, 공정성, 지속가능성, 거버넌스 등 글로벌 핵심 의제를 다루는 10개 모듈로 강의를 구성했고, 세계적 AI 연구 기관의 15명의 석학으로 구성된 국제자문위원회도 운영하고 있다. LG AI연구원과 유네스코는 오는 5월 서울에서 ‘AI 윤리 MOOC’ 론칭 행사를 진행할 예정이다.
soup@fnnews.com 임수빈 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지