로봇윤리와 인간윤리
파이낸셜뉴스
2019.09.24 17:21
수정 : 2019.09.24 17:21기사원문
'로봇은 사람에게 해를 끼쳐서는 안 되며, 위험에 처한 인간을 모른 척해서도 안 된다(1원칙), 로봇은 1원칙에 위배되지 않는 한, 인간의 명령에 복종해야 한다(2원칙), 로봇은 1, 2 원칙에 어긋나지 않으면 스스로를 보호해야 한다(3원칙)'는 내용이다. 아주 간단명료한 원칙이지만 적용하기에 현실이 그리 호락호락하지 않다.
최근 자율주행자동차(Automated Vehicle·AV)라는 최첨단 이동로봇의 상용화를 앞두고 AV에 적용할 로봇원칙이 필요하다는 주장이 제기되고 있다. 논란의 시작은 트롤리 딜레마(Trolley dilemma) 상황에서 비롯되었다. 언덕을 내려가는 AV의 브레이크가 고장이 나서 갈림길에서 5명의 성인과 1명의 어린이 중 한쪽을 희생시키거나 또는 중앙분리대를 충돌해 자신의 생명을 희생시켜야 하는 3가지 선택 상황에 처했을 때의 딜레마다. AV를 설계할 때 어떤 경우라도 탑승자의 희생이 최소화되도록 의무론(Deontology)을 선택했다면 판매에는 도움이 되겠지만, 인명사고가 발생했기 때문에 AI를 설계한 사람이나 회사는 법적인 책임과 금전적 보상책임을 피할 수 없게 된다. 한편 AV가 최대 다수의 최대 행복을 지향하는 공리주의(Utilitarianism)적 선택을 하도록 프로그래밍됐을 경우에는 5명의 성인과 1명의 어린이 그리고 차량 탑승자의 가치를 순식간에 계산해서 손해가 가장 적은 피해 대상을 선택해야 하지만 현실적으로 계산이 가능하지도 않고 차량 탑승자가 죽을 수도 있는 차를 살 구매자도 거의 없으리라 예상된다.
기술 발전으로 로봇이 인간처럼 윤리적 판단을 해야 하는 경우가 점점 늘어날 것으로 예상된다. 로봇윤리원칙은 인간의 명령이기 때문에 로봇은 이를 위반할 수 없다. 하지만 인간들은 윤리원칙을 위반하더라도 처벌되지 않으면 양심을 속이고 어기는 경우가 종종 있다. 특이점 시대가 오면 인간보다 더 뛰어난 로봇이 등장한다고 한다. 이들이 인간처럼 윤리원칙을 멋대로 무시하게 되면 스티븐 호킹 교수가 우려했듯이 인류의 종말은 피할 수 없다.
황기연 홍익대 도시공학과 교수·전 한국교통연구원장
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지