숭실대 최대선 연구팀, AI 음성복제 막는 '목소리 보호 기술' 개발
파이낸셜뉴스
2026.05.08 12:11
수정 : 2026.05.08 11:18기사원문
보이스피싱·딥페이크 악용 막는 음성보호 기술
AI가 원래 목소리 학습 못하게 해 복제 차단
[파이낸셜뉴스] AI를 이용한 음성 복제 범죄가 확산하는 가운데 숭실대학교 연구진이 음성 도용 자체를 막는 보안 기술을 개발했다. 기존처럼 가짜 음성을 사후 탐지하는 방식이 아니라, AI가 원본 음성을 제대로 학습하지 못하도록 만드는 방식이다.
8일 숭실대에 따르면 AI안전성연구센터 최대선 교수 연구팀은 개인 음성이 무단 복제되거나 범죄에 악용되는 것을 막기 위한 AI 음성 보호 기술 'RoCo(Robust Code)'를 개발했다.
이 기술은 사용자 음성에 보호 신호를 삽입해 AI가 화자의 음성 특징을 정확히 학습하지 못하도록 설계했다. 실제 사람이 듣기에는 큰 차이를 느끼지 못하지만 음성 복제 AI에는 다른 화자로 인식되도록 만드는 방식이다.
기존 음성 복제 방지 기술에 사람이 인지하기 어려운 미세한 잡음을 추가해 AI 학습을 방해하는 구조가 많았다.
다만 처리 시간이 길어 실시간 서비스 적용이 어렵고, 최신 잡음 제거 기술 적용 시 방어 효과가 저하되는 한계가 있었다.
연구팀은 음성 자체에 노이즈를 넣는 대신 AI 음성 분석 내부를 교란하는 방식을 적용했다. 이 방식은 잡음 제거 이후에도 보호 성능이 유지되고 처리 시간은 평균 15초 수준으로 단축됐다. 이는 기존 대비 5~10배 빠른 수준이다.
최대선 숭실대 교수는 "RoCo는 음성 자체를 변형하는 기존 방식과 달리 AI의 음성 인식 과정 내부를 교란하느 방어 신호를 적용하는 점에서 차별성이 있다"며 "가짜 음성을 사후 탐지하는 것이 아니라 생성 자체를 차단하는 기술적 기반을 마련했다는 데 의미가 있다"고 밝혔다.
한편, 이번 연구는 과학기술정보통신부 지원, 정보통신기획평가원(IITP)이 전담하는 '엣지 AI 보안을 위한 Robust AI 및 분산 공격탐지기술 개발' 과제의 일환으로 수행됐다.
spring@fnnews.com 이보미 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지