영화에서 누군가 이런 질문을 던졌다. "로봇의 순수한 사랑을 만들어낸 인간은 그럼 어떤 책임을 지는 건가요?" 스필버그 감독이 영화를 통해 이야기하고 싶었던 AI윤리학이다. 감독의 관심사는 인공지능을 통한 인간 구원의 가능 여부나 인공지능의 효능과 폐해가 아니다. 인공지능 로봇의 사랑을 통해 인간을 인간답게 하는 것이 과연 무엇인지를 말하고자 했다. 결국 인간은 자신이 창조한 인공지능 로봇의 사랑에 대해 어떤 책임을 져야 하는지 묻고 있다.
지난달 출시된 AI 대화 서비스 챗봇 '이루다'를 둘러싸고 논란이 일고 있다. 이루다에 대한 이용자들의 성희롱·성착취·소수자 차별·인종차별·개인정보 활용 등 갖가지 이의 제기가 AI윤리 전반의 문제로 번지고 있다. AI 전문 스타트업이 개발한 이루다는 스무살 여성으로 캐릭터가 설정돼 있고, 이용자는 40만명이다. 약 100억건의 데이터를 기반으로, 실제 연인들이 나눈 대화를 활용해 상대방의 감정을 분석해주는 서비스다.
이루다는 성능이 낮은 챗봇에 불과하지만 AI를 통해 차별·혐오가 확산하지 않도록 개발업체가 윤리적 책임을 다했어야 했다. 2017년 초 세계적인 AI 전문가들이 발표한 '미래 인공지능 연구의 23가지 원칙'(아실로마 AI 원칙)에서 이미 제시됐다. 물리학자 스티븐 호킹, 테슬라 최고경영자(CEO) 일론 머스크 등이 서명한 이 원칙에는 "AI 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다"는 내용이다. AI가 편견과 차별을 갖지 않도록 방지해야 한다는 원칙은 이미 국제표준이다.
joo@fnnews.com 노주석 논설위원
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지