IT 인터넷/SNS

"믿을 수 있는 AI 위해 윤리적 기준 필요" 산업-학계 한 목소리

임수빈 기자

파이낸셜뉴스

입력 2023.07.05 17:57

수정 2023.07.05 17:57

과기정통부 '제2차 AI 윤리정책 포럼' 개최 산업계 비롯 여러 분야 전문가 참여해 인간 전문가 감수 필요 등 다양한 조언
서울 서초구 엘타워에서 열린 '제2차 AI 윤리정책 포럼' 현장. /사진=임수빈 기자
서울 서초구 엘타워에서 열린 '제2차 AI 윤리정책 포럼' 현장. /사진=임수빈 기자

[파이낸셜뉴스] 전 세계적으로 생성형 인공지능(AI)에 대한 수요가 높아지는 가운데, AI를 개발하고 윤리적으로 활용하기 위해 국내 산업계 및 학계의 논의가 활발하게 진행되고 있다. 전문가들은 AI 활용에 있어서 윤리적 딜레마는 반드시 발생할 수밖에 없다고 봤다. 결국 각 부문별로 신뢰할 수 있는 AI를 구축하기 위한 기준이 필요하다고 입을 모았다.

과학기술정보통신부는 5일 서울 서초구 엘타워에서 정보통신정책연구원(KISDI)과 한국정보통신기술협회(TTA)와 함께 '제2차 AI 윤리정책 포럼'을 개최했다.

AI 윤리정책 포럼은 AI의 윤리적 개발과 활용을 위한 논의와 AI 신뢰성 검증 및 인증 등 주요 정책 과제에 대한 의견 수렴을 위한 공론의 장이다. 산업계를 비롯해 윤리, 교육, 철학 등 다양한 분야에서 30명의 전문가가 포럼위원으로 활동하고 있다.


포럼위원장인 김명주 서울여대 정보보호학과 교수는 이날 "우리나라가 AI 규제나 윤리, 신뢰성에 대해 전혀 이야기를 안 했던 나라처럼 비춰지는 경향이 있지만 아니다"라며 "국내에서도 활발하게 논의가 이뤄지고 있고, 그러다 보면 글로벌 (AI 윤리) 프레임(틀)에도 맞춰나갈 수 있지 않을까 생각한다"고 전했다.

포럼은 △윤리분과 △기술분과 △교육분과로 구성돼 있다. 이번 포럼에서는 분과별로 생성형 AI 활용과 관련한 윤리적 쟁점들을 발표하고, 윤리와 신뢰성을 담보하면서도 AI의 활용을 촉진할 수 있는 방안에 대해 깊은 논의가 이뤄졌다.

윤리분과 세션에서는 노태영 김앤장 법률사무소 변호사가 '법률서비스 분야에서의 생성형 AI 활용과 윤리적·법적 쟁점'이라는 주제로 이야기를 나눴다. 개인에 대한 법률상담이나 기업의 계약서 작성 등에 사용될 수 있는 생성형 AI는 민감한 정보를 처리하고 산출 과정에 대한 설명이 어려워 이용자에 대한 안전성 및 책임성, 연대성 등이 필요하다는 점이 강조했다.

노 변호사는 "변호인들이 생성형 AI를 인프라로 활용해서 계약서나 문서 초안을 받게 될 수도 있다"면서도 "그 과정에서 실수가 발생하면 의뢰인에 대해 상당한 무거운 책임을 질 수 있고, 책임 소지도 불분명하기 때문에 법적·윤리적 측면에서 고려해야 할 점이 많다"고 설명했다.

기술분과 세션에서는 김지관 한국IBM 실장이 '신뢰 가능한 AI 구현을 위해 기업이 고민해야 할 것'이라는 주제로 발언했다. 특히 기업이 데이터 및 AI 모델의 소유 및 사용 주체를 명확히 하고, 관리를 수행할 수 있도록 정부에서 가이드라인을 제시할 필요가 있다고 지적했다.

김 실장은 "기업 입장에서는 AI 서비스를 만들었는데 고객에게 크리티컬한 메시지를 전달하기라도 하면 기업 이미지에 큰 타격을 입게 된다"며 "데이터 신뢰 확보나 데이터 프라이버시 등이 더 중요해진 것"이라고 진단했다.

교육분과 세션에서는 김기영 아티피셜소사이어티 대표가 '생성형 AI를 활용한 맞춤형 교육의 현주소 및 방향성'이라는 주제를 꺼냈다.
향후 교육 분야에서 생성형 AI의 활용도가 높아질 것으로 예상되나 다른 영역에 비해 엄격한 윤리적 기준이 적용돼야 하므로 인간 전문가에 의한 감수 및 평가는 여전히 중요하다는 평가다. 특히 학습데이터의 진실성, 저작권 확보 등에 대한 엄격한 검증이 필요하다는 시각이다.


김 대표는 "교육 분야는 좋은 서비스를 받기 위해 개인정보가 자발적으로 유통 되는 시장"이라며 "생성형 AI 기반으로 교육을 자동화하는 것은 매우 어려운 분야고, 사람이 검수한 자료를 많이 추가하는 등 조치가 필요하다"고 내다봤다.

soup@fnnews.com 임수빈 기자

fnSurvey