카스퍼스키, 식별 정보·유추 가능한 정보 입력 자제
[파이낸셜뉴스] 인공지능(AI) 기반 캐리커처·애니메이션 제작이 유행하는 가운데 개인정보를 과도하게 입력할 경우 사칭과 해킹 위협으로 이어질 수 있다는 분석이 나온다. 개인 민감 정보가 광범위하게 노출되지 않기 위해서는 식별 가능한 정보는 입력을 자제해야 한다는 분석이다.
15일 카스퍼스키 등 보안업계에 따르면 최근 인스타그램, 틱톡, 링크드인 등 사회관계망서비스(SNS)에서 이용자가 자신의 사진과 함께 직업, 일상, 가족 정보 등을 입력해 AI로 캐리커처나 일러스트를 생성하는 콘텐츠가 확산되고 있다. 또 '챗GPT야, 너가 생각하는 나의 이미지를 그려줘' 등 그간의 데이터를 기반으로 상상해 사용자의 그림을 그려달라는 프롬프트 작성법도 SNS를 통해 알려지고 있다.
카스퍼스키에 따르면 이용자들은 위와 같은 요청을 하면서 회사명, 직책, 거주 지역, 취미, 가족 정보 등 다양한 데이터를 함께 입력하는 경우가 많다.
카스퍼스키는 "이미지와 텍스트, 맥락 정보가 결합되면 사이버 범죄자는 피해자의 직장, 역할, 주변 인물 등을 반영한 정교한 사기 시나리오를 설계할 수 있다"며 "일반적인 피싱보다 신뢰도가 높아져 금전 요구나 개인정보 탈취로 이어질 가능성이 커진다"고 경고했다.
특히 아시아태평양(APAC) 지역은 AI 활용도가 높은 반면 기술 이해도는 상대적으로 낮아 이러한 공격에 더 취약한 것으로 나타났다. 전문가의 78%가 매주 AI를 활용하는 것으로 집계돼 글로벌 평균(72%)을 웃돌았지만 기본적인 보안 인식은 이에 미치지 못한다는 분석이다.
또 AI 서비스 이용 과정에서 생성된 이미지뿐 아니라 입력된 텍스트, 사용 기록, 인터넷(IP) 주소, 기기 정보 등 다양한 데이터가 플랫폼에 저장될 수 있다는 점도 위험 요소로 지적된다. 일부 데이터는 서비스 개선이나 AI 모델 학습을 위해 장기간 보관될 수 있어 예상보다 넓은 범위의 정보가 활용될 가능성이 있다.
아드리안 히아 카스퍼스키 아시아태평양 총괄 사장은 "AI 캐리커처 트렌드는 무해한 놀이처럼 보이지만 실제로는 사이버 범죄자에게 개인 정보를 스스로 제공하는 것과 같다"며 "이용자가 입력한 정보는 정교한 사회공학 공격을 설계하는 데 활용될 수 있다"고 말했다.
이에 카스퍼스키는 AI 콘텐츠 생성 과정에서 본명, 직책, 회사명, 위치 등 식별 가능한 정보 입력을 자제하고, 위치나 신원을 유추할 수 있는 이미지 업로드를 피해야 한다고 권고했다. 또 서비스 이용 전 개인정보 처리 방침과 데이터 활용 범위를 확인하는 등 주의가 필요하다고 강조했다.
kaya@fnnews.com 최혜림 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지