IT 정보통신

AI 윤리, 결국 개발자의 윤리다...사람 위한 개발윤리 마련해야

서영준 기자

파이낸셜뉴스

입력 2017.06.06 15:37

수정 2017.06.06 15:37

"강력한 인공지능(AI)의 등장은 인류에게 일어나는 최고의 일도, 최악의 일도 될 수 있다. 우리는 어느 쪽이 될지 알 수 없다." 세계적 물리학자 스티븐 호킹 박사가 지난해 10월 케임브리지대학 연설에서 언급한 내용이다. AI가 미래가 아닌 현실의 문제가 되고 있지만, 어떤 방향으로 나아갈지 정확한 예측이 어렵다는 의미로 해석된다.

그동안 AI는 군사, 금융 등 전문적인 영역에서 주로 사용돼 왔다. 하지만 최근에는 레저, 스포츠, 교통 등 인간의 일상으로 영역을 빠르게 확장하고 있다.
IBM의 왓슨은 의료 분야에서 의사 대신 진단을 하고, 구글의 알파고는 바둑에서 인간을 상대로 승리했다. 이러한 현상은 AI가 인간보다 훨씬 많은 정보를 빠른 속도로 처리하며, 때로는 더 정확한 의사결정이 가능하다는 것을 보여주고 있다.

따라서 일부 미래학자들 사이에서는 AI 기술의 잘못된 사용으로 인류의 존속까지 위협받을 수 있다는 우려가 제기되면서 AI 윤리에 대한 문제가 새롭게 부상하고 있다. 그러나 AI 윤리에 대한 문제는 이제 막 논의를 시작한 단계로, 명확한 기준이나 방향이 설정되지 않은 상태다. 다만, 전문가들은 AI 윤리 문제는 기술의 문제라기보다 AI를 만드는 개발자의 윤리가 중요하다는데 입을 모으고 있다.

■AI 윤리 문제 논의 시작
AI 윤리 문제가 부각되면서 미국과 영국 등은 AI 기술의 사회적, 윤리적, 법률적 대응 방안을 모색하고 있다. 미국은 지난해부터 대통령실과 직속 경제자문위원회, 국가과학기술위원회 주도로 AI 기술이 가져올 명암을 분석하고, 대책 수립에 착수했다. 영국 의회 과학기술위원회도 AI의 윤리적 문제에 대응하기 위한 위원회 구성과 가이드라인 제정의 필요성을 주장했다.

글로벌 정보기술(IT) 기업들도 AI의 윤리 문제에 대한 대처 방안을 마련하고 있다. 구글 딥마인드는 지난해 10월 AI가 인간에게 해를 끼치는 행동을 할 때 수동으로 AI의 작동을 멈출 수 있는 있는 '빅 레드 버튼', 이른바 킬스위치를 적용하겠다고 발표했다. 여기다 AI 윤리위원회를 설립해 AI의 특정 위험과 시급한 법적 이슈를 연구해 윤리 지침을 마련 중이다.

구글의 지주사인 알파벳, 아마존, 페이스북, IBM, 마이크로소프트(MS) 등 5대 IT 기업들은 공동으로 AI 윤리 지침 만들기에 착수했다. 이를 통해 AI의 노동력 대체와 안전 이슈 등을 논의해 자율 규제 프레임워크를 내놓을 방침이다. 한국정보화진흥원 관계자는 "아직 각국 정부의 규제 방향성이 확실하지 않은 상황에서 기업 스스로 AI의 안전성과 프라이버시 이슈에 대한 대처 방안을 마련 중"이라며 "중장기적으로 AI가 발전함에 따라 기계와 인간의 공존 방법에 대한 모색이 필요하다"고 설명했다.

[사진=픽사베이]
[사진=픽사베이]

■AI 윤리는 결국 개발자 윤리
AI 윤리 문제에 대한 논의가 진행되고 있지만 결국은 AI를 둘러싼 이해관계자들에 대한 윤리가 중요하다는 것이 전문가들의 의견이다. 가령 노벨의 다이너마이트는 원래 탄광이나 수로 발파 등에서 인명피해를 막고 인류 발전에 기여할 목적으로 발명됐지만, 사람들이 폭탄으로 이용하면서 죽음의 무기로 불리게 됐다. 비슷한 맥락에서 AI도 기술 자체의 윤리보다는 AI를 둘러싼 이해관계자들의 윤리 문제로 접근해야 한다는 의미다.

LG경제연구원 진석용 책임연구원은 "자율성이 높아진 AI의 상용화 가능성이 점점 커지면서 AI의 판단이나 사용이 야기한 결과와 그 결과의 책임 소재, 사용자 보호 등과 관련된 법제도의 정비가 시급한 이슈로 떠오르고 있다"며 "결국은 개발자의 성향과 의도에 따라 AI에 부여할 자율성의 수준이 결정될 것이기 때문에 개발자의 철학이 중요하다"고 했다.

따라서 AI 윤리 문제를 논의하고 새로운 기준을 제시하는데 이해관계자들에 대한 교육이 필요하다는 의견도 나온다.
한국과학기술기획평가원(KISTEP) 김윤정 박사는 "AI 기술의 활용과 발전을 위해서는 도덕과 윤리의 필요성, 적용가능성과 적용방법을 연구해 실효성 있는 윤리 기준이 제정돼야 한다"며 "AI 알고리즘이나 소프트웨어 설계자, 제조업자, 판매업자와 같은 AI 관련 이해관계자에 대한 윤리 교육도 함께 고려돼야 한다"고 설명했다.

syj@fnnews.com 서영준 기자

fnSurvey