IT 정보통신

'챗봇 시대' 인류의 숙제

김미희 기자

파이낸셜뉴스

입력 2016.05.01 17:27

수정 2016.05.01 17:27

로봇·AI에 대한 사회적 안전망 전세계가 통일하기는 어려워
각국에 맞게 가이드라인 세워야
"히틀러가 옳았다. 대량학살에 찬성한다."

최근 마이크로소프트(MS)의 인공지능(AI) 모바일 메신저(채팅로봇) '테이(Tay)'가 일으킨 '막말 파문'은 지능정보사회가 가져올 위험성의 단면을 보여줬다. 당초 트위터에서 10대들과 대화를 나누며 그들의 대화 주제 등을 익히도록 설계된 테이를 제3자가 악용하면서 상식에 어긋나는 말들이 쏟아졌기 때문이다. 이와 관련 AI는 이를 활용하는 사람에 의해 인류에 기여할 수도 있고, 위협의 도구가 되기도 하는 극단적 양면이 동시에 존재한다는게 전문가들의 공통된 견해다. 특히 AI가 개인의 일상 속으로 스며드는 챗봇의 경우, 개인정보 유출이나 보안 위협 등이 곳곳에 도사리고 있기 때문에 기술 및 서비스 개발 초기부터 대중의 인식개선과 윤리 문제 등이 논의돼야 한다는 목소리가 높아지고 있다.


■AI에 대한 막연한 불안감은 금물

1일 주요 외신 및 관련 업계에 따르면 일본 정부는 최근 열린 주요 7개국(G7) 정보통신장관 회의에서 AI 연구개발에 적용할 국제기준을 제시했다. 인간이 AI를 제어하는 것을 기본으로 AI가 인간의 안전을 위협하지 않도록 하는 게 주된 내용이다.

미래창조과학부 등 우리 정부도 지난달 28일 '지능정보사회 중장기 종합대책 추진 계획'을 마련하면서, 일자리 문제 등 고용 이슈와 윤리적 논란 등도 함께 논의키로 했다. 이른바 지능정보사회로 연착륙하기 위한 사전작업이다. 이와 관련 전문가들은 일반인의 인식 개선도 선행돼야 한다는 지적을 내놨다.

광운대 미디어영상학부 문상현 교수는 "새로운 기술 환경 및 사회적 변화에 대해 막연한 불안감을 해소하는 게 중요하다"며 "일반인들이 인공지능 사회에 대해 안심할 수 있도록 '사회적 안전망'을 어떻게 만들어갈지 논의해야 한다"고 설명했다. 그는 이어 "로봇이나 인공지능과 경쟁이 아닌 공존할 수 있도록 일자리 문제와 윤리.도덕.법률적 논쟁에 대해 사회적 논의와 합의가 함께 필요한 시점"이라고 덧붙였다.

■직무분석 등 일자리 문제 논의도 병행해야

또 인공지능은 적용분야가 폭 넓기 때문에 전 세계적으로 통일된 기준을 마련하는 데 한계가 있다는 지적도 제기됐다. 즉 인공지능을 둘러싼 거대담론 대신 윤리 규정 등 각 국가의 사회적 환경에 맞는 가이드라인을 먼저 설정해야 한다는 것이다. 구글 인공지능 프로그램 '알파고'를 개발한 영국 스타트업(창업초기기업) 딥마인드가 구글에 인수될 당시, 자신들의 기술을 군사 목적으로 사용해선 안 된다는 조건을 제시한 것도 같은 맥락이다.

이와 함께 일자리 문제도 주요 이슈로 거론된다.
챗봇의 대중화 속에 산업현장이 자동화를 넘어 지능화되면서 인간의 업무를 대체할 수 있기 때문이다. 이에 지능정보사회를 앞두고 소프트웨어 융합 교육의 필요성이 떠올랐다.


성민규 울산과학기술원(UNIST) 교수는 "인공지능의 위험과 두려움을 해소하기 위해서는 과학기술에 대한 인문 사회적 접근이 필요하다"며 "이공계 학생.공학자 등이 인문사회학적 측면에서 진지하게 고민할 수 있는 융합교육환경 등을 마련해야 한다"고 강조했다.

김미희 기자

fnSurvey