컬럼비아大 기타 조하르 교수 "AI 시대 최대 위험은 신뢰 양극화"

파이낸셜뉴스       2025.12.10 05:00   수정 : 2025.12.10 05:00기사원문
'불신'도 '과신'도 AI 도입엔 리스크 감정 공유하면 AI 조언 과신하게 돼…'관계적 신뢰'의 함정 딥페이크가 만드는 기업 리스크…"정정된다 해도 인식은 원상복구 안 돼"



[파이낸셜뉴스] 8일 서울 연세대학교에서 'AI와 비즈니스의 미래'를 주제로 열린 제4회 YVIP 국제학술대회에서 기타 조하르 미국 컬럼비아대 교수는 "AI 도입에 있어서 '신뢰 부족'과 '과도한 신뢰' 모두 난관"이라고 지적했다.

조하르 교수는 우선 AI에 대한 신뢰가 낮은 이유로 △개인정보 유출 우려 △오판에 대한 책임 소재 불명확성 △알고리즘 편향 △설명 부족 등을 꼽았다. 실제 국제 설문에서도 AI 활용을 신뢰한다는 응답은 중국·인도·태국·나이지리아를 제외한 대부분의 국가에서 절반을 넘지 못했으며, 한국 역시 약 40% 수준에 그쳤다고 설명했다.

반면 AI를 실제로 사용하는 사람들 사이에선 오히려 지나친 신뢰가 나타난다고 했다. 그는 "챗봇이 사용자에 맞춰 공손하게 응답하기 때문에 사용자 입장에선 '한명쯤 있었으면 하는 친구 같은 존재'로 느껴지는 경향이 있다"면서 "너무 인간처럼 보이는 특성 때문에 사용자들이 AI를 필요 이상으로 신뢰하게 된다"고 짚었다.

그러면서 그는 "사람들이 △진학 상담 △연애 문제 상담 △정신 건강 등 의료 조언 요청과 같은 민감한 분야에서까지 AI에 과의존한다"고 설명했다. 특히 의학 관련 상담은 전체의 15~20%에 이른다며, 미국처럼 의료 접근성이 낮은 국가에선 이 수치가 더 높다고 덧붙였다.

연구팀의 실험에서도 비슷한 현상이 관찰된 것으로 알려졌다. 실험에 따르면, 사용자가 꿈, 감정, 인간관계 같은 개인적·감정적 정보를 AI와 공유했을 경우 '관계적 신뢰'가 생겨버려 AI가 추후 제시하는 조언을 더 잘 이행하는 것으로 밝혀졌다. 'AI가 나를 이해한다'고 느끼는 순간 AI에 대한 신뢰도가 폭발적으로 상승한다는 것이다.

이어 조하르 교수는 딥페이크에 대한 사용자의 신뢰가 기업과 브랜드에 미치는 영향도 조명했다. 그는 "CEO의 발언이나 기업 실적을 왜곡한 영상이 온라인에 퍼지는 사례가 지속적으로 등장하고 있으며, 잘못 형성된 인식은 이후 정정되더라도 원래 수준으로 되돌리기 어렵다"고 지적했다.
이와 관련해, 그는 "사전 경고나 미디어 리터러시 교육도 효과가 거의 없었다"고 덧붙였다.

조하르 교수는 "AI가 우리에게 주는 잠재적 이익이 매우 크지만, 부정적 목적으로 사용될 때 드러나는 위협 또한 점점 더 뚜렷해지고 있다"면서 "AI에 대한 건강한 수준의 신뢰도, 어느 정도의 불신도 모두 필요하다"고 역설했다. 그는 "너무 빠른 규제가 혁신을 막을 수 있으나, 너무 늦은 규제 역시 소셜미디어처럼 회복 불가능한 피해를 유발할 수 있다"며 "초기 단계에서 시민·학계가 함께 규제 논의를 해야 한다"고 강조했다.

whywani@fnnews.com 홍채완 기자

Hot 포토

많이 본 뉴스