"사과, 차별 문제는 사람, 기능 오류는 AI가 더 효과적"
파이낸셜뉴스
2026.04.13 16:25
수정 : 2026.04.13 16:25기사원문
이화여대 연구팀 "고객은 인간에겐 도덕성, AI엔 정확성을 기대"
[파이낸셜뉴스] 차별·불친절 등 도덕적 문제에는 인간 상담원이, 기능 오류 등 성과 문제에는 AI 챗봇이 직접 사과할 때 고객 신뢰 회복에 더 효과적이라는 연구 결과가 나왔다. 소비자는 인간에게는 도덕성을, AI에는 기술적 정확성을 기대하는 경향이 있어 이러한 기대가 어긋날 때 부정적 반응이 더 크게 나타나는 것으로 분석됐다.
이화여자대학교 심리학과 김은실 교수(교신저자)와 소지현 석사(제1저자) 연구팀은 이 같은 내용을 담은 논문 '책임의 프레이밍: 서비스 실패 상황에서 인간과 AI 에이전트가 사과 효과에 미치는 영향'을 심리학 분야 국제학술지 컴퓨터스 인 휴먼 비헤이비어(Computers in Human Behavior) 6월호에 게재할 예정이다.
연구팀은 스마트폰 구매 추천 오류 상황을 가정해 두 차례 실험을 진행했다. 실패 유형은 두 가지로 나뉘었다. 하나는 '여성은 분홍색 휴대폰만 쓴다'는 성차별적 고정관념에 기반해 분홍색 제품만 추천한 가치 기반 실패이고, 다른 하나는 휴대폰 대신 헤드폰을 추천한 성과 기반 실패다.
첫 번째 실험에서는 참가자 222명을 대상으로 각 실패 상황에서 인간 상담원과 AI 챗봇이 사과할 때 소비자 반응을 비교했다. 그 결과 가치 기반 실패 상황에서는 인간 상담원이 사과했을 때 신뢰도 하락과 비난 정도가 더 크게 나타났다. 반면 엉뚱한 제품을 추천한 성과 기반 실패 상황에서는 AI 챗봇이 사과했을 때 소비자의 부정적 반응이 더 강했다.
연구팀은 이러한 결과에 대해 소비자가 인간에게는 도덕성과 책임 의식을, AI에는 기능적 정확성과 기술적 성과를 기대하기 때문이라고 분석했다. 각 주체가 자신에게 기대되는 역할에서 벗어났을 때 더 부정적인 평가가 뒤따른다는 것이다.
두 번째 실험에서는 사과 주체별로 원인 설명 방식이 신뢰 회복에 미치는 영향을 분석했다. 가치 기반 실패 상황에서 인간 상담원은 외부 요인에 책임을 돌리기보다 자신의 잘못을 인정하고 책임을 수용하는 내부 인정 전략을 사용할 때 소비자의 용서 의향이 가장 높았다. 반면 AI 챗봇은 기술적 문제 등 외부 상황을 원인으로 설명할 때 신뢰 회복 효과가 더 컸다.
성과 기반 실패 상황에서는 반대의 결과가 나타났다. 인간 상담원은 외부 원인을 설명할 때, AI 챗봇은 내부적으로 오류를 인정하는 방식으로 사과할 때 신뢰 회복에 더 효과적이었다.
연구팀은 이번 연구를 통해 소비자가 인간 상담원에게는 도덕적 가치, AI에게는 기능적 성과를 기대하는 경향을 확인했다고 밝혔다.
김은실 교수는 "기존 연구가 사과 메시지의 내용에 집중했다면, 이번 연구는 상황에 따라 인간과 AI 중 누가 사과해야 더 효과적인지에 주목했다"며 "서비스 실패 유형에 따라 사과 효과가 달라지는 만큼 기업의 AI 고객 응대 전략에 중요한 시사점을 제공한다"고 말했다.
spring@fnnews.com 이보미 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지