IT IT일반

"○○○씨?", "맞습니다" 한마디에 보이스피싱 먹잇감 됐다

최혜림 기자

파이낸셜뉴스

입력 2026.02.20 07:00

수정 2026.02.20 07:00

[파이낸셜뉴스] 피해자의 목소리를 녹취한후 AI로 흉내내려면 몇초 분량의 음성 데이터가 필요할까. 10분?, 1분? 30초? 모두 틀렸다. 단 3초 분량의 음성 파일이면 충분한 것으로 나타났다. 최근 보이스피싱 조직들은 개인정보가 털린 피해자들에게 본인 확인 전화만 한 후 짧은 답변만으로도 이를 활용해 AI 연기를 통해 금전 편취에 악용하고 있다고 한다.

20대 직장인 A씨도 유사한 사례다. A씨는 최근 모르는 번호로 걸려온 전화에서 "000씨 되시죠?"라는 질문을 받고 "네"라고 대답했다.

업무 관련 연락으로 추정했지만 통화는 곧바로 종료됐다. 찜찜한 마음에 전화번호를 검색해 보니 경찰청에 피싱 의심 번호로 5건 제보된 이력이 있었다. A씨는 "전화번호와 이름도 알고 목소리까지 확보했다는 점이 불안하다"며 "혹시 목소리가 인공지능(AI) 딥페이크 피싱에 악용되는 것 아닐지 걱정된다"고 말했다.

이준석 기자
이준석 기자

"3초면 녹취해 보이스피싱 가능"
20일 보안업계에 따르면 최근 보이스피싱 조직이 피해자 음성 샘플을 AI로 재현해 금전을 편취하는 수법이 확산하고 있다. 짧은 통화나 사회관계망서비스(SNS)에 피해자가 게시한 영상 등도 AI 음성 복제에 이용된다. 수 초 분량의 샘플만으로도 목소리를 재현할 수 있어 피해자가 속을 가능성이 크다는 우려가 나온다.

보안기업 맥아피에 따르면 3초 분량의 음성만 확보해도 원본과 최대 85%까지 유사한 딥페이크 음성을 만들어낼 수 있다. 이는 피해자 자녀나 지인의 목소리를 흉내 내 교통사고·납치·강도 피해를 당했다는 식으로 긴급 상황을 꾸며 돈을 요구하는 범죄에 악용되고 있다. 딥페이크 사기로 인한 금전 피해도 폭증했다. 보안기업 서프샤크는 음성 복제를 포함한 딥페이크 사기 피해 규모가 2020~2023년 누적 1850억원 수준에서 2024년 약 5204억원, 2025년에는 약 1조 5901억원으로 급증했다고 집계했다. 또 보안기업 킵넷에 따르면 지난해 음성 딥페이크 제작은 전년 대비 680% 늘었다. 오픈소스나 무료 앱 등으로 누구나 쉽게 딥페이크를 제작할 수 있어 진입 장벽이 낮아진 것으로 풀이된다.

모르는 번호로 걸려온 전화에 "네"라고 응답하자 곧바로 종료된 통화 녹음 내용 캡쳐(왼쪽)와 해당 번호를 조회하자 피싱 의심 번호로 제보 이력이 확인된 경찰청 사이트 캡쳐. 독자 제공
모르는 번호로 걸려온 전화에 "네"라고 응답하자 곧바로 종료된 통화 녹음 내용 캡쳐(왼쪽)와 해당 번호를 조회하자 피싱 의심 번호로 제보 이력이 확인된 경찰청 사이트 캡쳐. 독자 제공

"AI 탐지기술로 방어책 마련해야"
전문가들은 이용자들이 최대한 수상한 전화에 응답을 피하고 보이스피싱 관련 앱을 적극 이용할 것을 권장하고 있다.
앱이 무방비로 전화를 걸어 음성 샘플을 확보하는 공격자의 행위 자체를 차단할 수는 없지만, 음성이 악용됐을 경우 사기 시도는 차단할 수 있기 때문이다. 라온시큐어 관계자는 "짧은 단어나 발화만으로도 복제가 가능하며 상황에 따라 피해자가 가족의 목소리와 유사하다고 느낄 수 있다"며 "전화·금융·플랫폼 서비스 차원에서 AI 탐지 기술을 적용해 위협을 완화해야한다"고 설명했다.
과학기술정보통신부는 최근 SKT의 '에이닷', KT의 '후후', LG U+의 '익시오' 등 AI가 통화 맥락을 파악해 보이스피싱을 탐지하고 이용자에게 경고하는 서비스를 활용할 것을 당부한 바 있다.

kaya@fnnews.com 최혜림 기자