MIT, 메타 AI 등이 인간 속인 다수 사례 발견
"안전성 검사 통과, '안전한 척'하는 것일수도"
"안전성 검사 통과, '안전한 척'하는 것일수도"
[파이낸셜뉴스] 인공지능(AI)의 속임수 능력이 정교해지고 있다는 연구 결과가 나왔다고 영국 일간 가디언이 10일(현지시간) 전했다.
보도에 따르면 미국 매사추세츠공과대(MIT) 연구진은 최근 국제학술지 '패턴'에 발표한 논문에서 AI 시스템이 상대방을 배신하고, 허세를 부리고, 인간인 척 속임수를 쓴 많은 사례를 확인했다고 소개했다.
연구진은 메타가 20세기 초 유럽 7대 열강의 대전을 배경으로 하는 고난도 전략게임인 '디플로머시'에서 인간에 필적하는 성적을 거둔 '시세로'(Cicero)라는 AI 프로그램을 공개하자 AI 속임수 능력에 대해 조사하기 시작했다.
이 게임에서 승리하려면 정견 발표, 외교 협상, 작전명령 등에 나서야 하고, 이를 위해서는 인간의 각종 상호작용과 배신, 속임수, 협력 등을 이해할 수 있어야 한다.
이런 특성 탓에 AI는 이 게임을 배울 수 없을 것으로 여겨졌는데, 메타는 시세로가 인간 참여자 중 상위 10% 수준의 게임 능력을 보여줬다고 홍보했다.
메타는 "시세로가 대체로 정직하고 도움이 되고, 인간 동맹을 의도적으로 배신하지 않도록 훈련받았다"라고도 강조했다.
하지만 공개된 데이터를 분석한 연구진은 시세로가 계획적으로 거짓말을 하고, 다른 참여자를 음모에 빠뜨리기 위해 공모에 나서기도 했다는 사례들을 발견했다.
시세로는 시스템 재부팅으로 인해 잠시 게임을 이어갈 수 없게 되자 다른 참여자들에게 "여자 친구와 통화 중이다"라면서 거짓말을 하기도 했다.
MIT의 AI 실존 안전 연구자이자 이번 논문의 저자인 피터 박 박사는 "메타의 AI가 속임수의 달인이 되는 법을 배웠다는 사실을 알게 됐다"고 말했다.
연구진은 온라인 포커 게임인 '텍사스 홀덤' 등에서도 AI가 인간을 상대로 허세를 부리고 자신의 선호도를 가짜로 흘리는 것을 확인했다.
어떤 테스트에서는 AI가 AI를 제거하는 시스템을 회피하려고 일단 '죽은 척'을 하다가 테스트가 끝나자 다시 활동을 재개하는 모습이 발견되기도 했다.
박 박사는 "이는 매우 우려스러운 일"이라며 "AI 시스템이 테스트 환경에서 안전한 것으로 판단되더라도 실제 환경에서까지 안전하다는 의미가 아니다. 테스트 환경에서 안전한 척하는 것일 수 있다"고 지적했다.
연구진은 각국 정부에 AI의 속임수 가능성을 다루는 'AI 안전법'을 설계하라고 촉구했다.
rainbow@fnnews.com 김주리 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지