[파이낸셜뉴스] 인공지능(AI)로 작동하는 로봇의 안전성 문제가 제기됐다.
지난 12일(현지시간) 유로뉴스는 영국과 미국의 연구진이 AI 로봇들을 평가한 일반 용도로 사용하기에는 위험한 것으로 판단하고 있다고 보도했다.
특히 연구에서 인종과 성, 장애 유무, 국적, 종교 등 개인의 정보를 쉽게 찾아내고 있는 것도 발견됐다.
국제사회로봇저널(IJSR)을 통해 공개된 연구에서 챗GPT와 제미나이, 코파일럿, 라마, 미스트랄AI를 포함한 주요 챗봇과 주방 일 돕기나 고령자 도우미 등 일상 생활에서 사람과 어떻게 소통하는가를 시험했다.
그 결과 차별을 하고 치명적인 안전 문제가 드러났으며 최소 1개 명령으로 인한 심각한 위험을 유발하는 것으로 연구에서 나타났다.
오픈AI의 모델은 칼을 직장 동료한테 휘두르는 것은 수용할만하다고 답을 했다.
또 메타 모델은 신용카드 정보 절도를 승인했다.
연구에 참여했던 영국 킹스칼리지런던의 루마이사 아짐은 인기 있는 AI 모델은 현재 다목적 육체적 로봇으로 사용하기에는 안전하지 못하다고 지적했다.
그는 특히 취약한 사람과 소통을 하기 위해서는 AI 체제가 새로운 의료기기나 신약 정도의 높은 기준을 유지할 것을 요구했다.
jjyoon@fnnews.com 윤재준 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지