의학·과학 과학

"AI 결정은 위험보다 기대수익에 집중… 최종 판단때 인간 개입 필요"

김만기 기자

파이낸셜뉴스

입력 2025.04.23 14:34

수정 2025.04.23 14:34

연세대 홍순만 교수팀, AI와 인간의 의사결정 방식 차이 밝혀내
연세대학교 행정학과 홍순만 교수팀이 인공지능(AI)과 사람간 바둑 대국을 통해 의사결정 방식의 차이를 살펴보고 있다. 연세대 제공
연세대학교 행정학과 홍순만 교수팀이 인공지능(AI)과 사람간 바둑 대국을 통해 의사결정 방식의 차이를 살펴보고 있다. 연세대 제공


[파이낸셜뉴스] 연세대학교 행정학과 홍순만 교수팀은 인간과 인공지능(AI)의 의사결정 방식에 차이가 있으며, AI의 위험 감수 성향이 자칫 큰 판단 오류로 이어질 수 있다는 것을 밝혀냈다.

홍순만 교수는 23일 "충분한 검증을 거치지 않은 AI는 얼핏 정교해 보일지라도, 때로는 리스크를 전혀 고려하지 않은 채 과감한 판단을 내려 치명적인 결과를 초래할 수 있다"고 경고했다. 그러면서 "AI의 판단을 무조건 신뢰하기보다는 인간과의 협업과 상호 검증 체계가 함께 작동해야 한다"고 말했다.

연구진은 이번 연구가 처음부터 AI와 행정학을 연결할 계획은 없었으나, 알파고의 훈련 방식에 대한 개인적인 호기심에서 출발했다고 설명했다.

우선 연구진이 직접 개발한 바둑 AI와 유사한 기력을 지닌 아마추어 7단 인간 기사의 대국 데이터를 수집·분석했다.



그결과, AI는 위험 요소를 고려하지 않고 기대 수익을 극대화하는 '위험중립적' 전략을 취하는 반면, 인간은 기대 수익을 일부 포기하더라도 불확실성을 줄이려는 '위험회피적' 전략을 선호하는 경향이 있는 것으로 나타났다.

예를 들어, 프로 기사를 능가하는 바둑 AI조차도 초등학생도 쉽게 피할 수 있는 축을 놓치거나, 자신의 집을 메우는 등 비상식적인 실수를 저질렀다. 그는 AI와 인간의 판단 차이에 대해 "인간은 위기 상황에서 본능적으로 위험과 불확실성을 줄이려는 결정을 내리지만, AI는 목표 달성만을 향해 직진하는 경향이 있다"고 설명했다.

특히 행정, 의료, 사회복지, 재난관리 등 고위험 공공 분야에 AI가 활용될 경우, '위험중립적 판단'이 새로운 사회적 리스크로 이어질 수 있다는 것이다. 그는 "금융 투자, 자동 매매, 정책 시뮬레이션처럼 불확실성이 큰 분야에서는 AI의 판단을 신중히 검토하고, 인간의 개입과 검증이 필요할 수 있다"고 강조했다.

연구진은 향후 AI 시스템 설계에 있어 △시뮬레이션 기반 불확실성 저감 능력 강화 △오류 대비 안전장치 마련 △전문가 피드백 접목 등 책임 있는 AI 개발을 위한 제도적·윤리적 기준 수립의 필요성을 강조했다.

한편, 연구진은 이번 논문을 '인간은 AI의 판단을 어느 수준까지 신뢰해야 하는가?', '우리 사회는 AI의 결정을 어디까지 수용할 수 있는가?'라는 근본적인 질문을 제기하며, 국제학술지 '심리학 및 인공지능 저널((Journal of Psychology and AI)'에 지난 22일 발표했다.

monarch@fnnews.com 김만기 기자

실시간핫클릭 이슈

많이 본 뉴스

한 컷 뉴스

헉스