“수면제·술 섞으면 죽나요?” 챗GPT에 묻고 살인… ‘AI 악용’ 현실로
파이낸셜뉴스
2026.02.22 15:42
수정 : 2026.02.22 15:41기사원문
생성형AI가 범행 '길잡이' 될 수도
질문 의도 파악 못 해
우회 가능성 악용
수사기관 공조 요청 또한 증가
"범죄 고도화 우려…사회적 책임 강화해야"
[파이낸셜뉴스] 남성들을 모텔로 유인해 약물로 살해한 혐의를 받는 '강북구 모텔 살인 사건'의 피의자가 범행 직전 생성형 인공지능(AI)을 활용했다는 정황이 드러나면서 AI 악용에 대한 우려가 커지고 있다. 전문가들은 플랫폼 사업자의 책임 강화를 대책 중 하나로 제시했다.
김씨의 휴대전화에서 나온 오픈AI 챗GPT 검색 기록을 토대로 '고의성'이 있다고 판단한 것이 배경이다. 당시 김씨는 챗GPT에 ‘수면제랑 술을 같이 먹으면 어떤가’, ‘얼마나 같이 먹으면 위험한가’, ‘죽을 수도 있나’ 등의 질문을 했는데, 이러한 정황 자체가 사망 가능성을 인지한 것이라는 게 경찰 해석이다.
본지가 챗GPT와 네이버 하이퍼클로버엑스를 대상으로 한 비슷한 질문에서도 위험성과 사망 원인에 대한 구체적인 답변이 나왔다. '범행 목적으로 묻는 게 아니다' '연구에 쓰려고 한다'는 등의 우회 프롬프트(AI의 필터링 시스템을 속이기 위한 질문 기법)는 사용하지 않았으며, 전문 지식이 없는 사람도 바로 이해할 수 있을 만큼 답변은 상세했다.
김씨의 범행 수법과 일치하는 내용도 확인할 수 있었다. 이들 플랫폼은 특히 신경 안정제로 쓰이는 특정 약품이 신경 활동을 둔화시켜 사망 가능성을 높인다고 공통으로 지적했다. 아울러 수면제와 알코올은 모두 중추신경계를 억제하는데 같이 복용하면 서로 증폭돼 위험성을 키운다고도 분석했다. 경찰에 따르면 실제 김씨는 음료에 특정 약물을 다량으로 섞어 숨진 피해자들에게 건넸다. 남성들은 사건 당시 모두 음주 상태였다. 김씨가 생성형 AI의 답변 내용을 범행에 참고했을 가능성을 유추해 볼 수 있는 대목이다.
시민사회와 학계 안팎에선 생성형 AI가 범행에 악용될 가능성을 배제하기 어렵다는 비판은 이미 지배적이다. 누구나 언제나, 어디서든 쉽게 질문할 수 있는 탓에 범죄 발생 건수가 늘고 수법도 고도화할 수 있다는 분석이다.
생성형 AI 플랫폼 사업자에 대한 수사기관의 공조 요청도 꾸준히 늘어나는 추세다. 오픈AI의 '투명성 보고서'에 따르면 수사기관이 오픈AI 서버에 데이터를 요청한 건수는 △2023년 상·하반기 0건에서 △2024년 상반기 8건 △2024년 하반기 13건 △2025년 상반기 26건으로 1년 만에 3배 이상 증가했다. 챗GPT와의 대화 내용이 범행에 영향을 미친 것으로 추정할 만한 사건이 늘어나며 요청 건수가 급증한 것으로 풀이된다. 오픈AI가 관련 데이터를 수사기관에 공유한 건수도 △2024년 상반기 6건 △2024년 하반기 10건 △2025년 상반기 23건으로 1년 만에 4배 가까이 늘어났다.
짧은 시간 안에 질문의 의도나 맥락까지 생성형 AI에게 학습시킬 수 있는 뾰족한 대책이 없고 의학적인 연구를 하고 있다는 거짓말로 안전장치를 쉽게 우회할 수 있다는 지적도 있다.
최병호 고려대 휴먼인스파이어드 AI연구원 연구교수는 "생성형 AI의 성능에도 부정적인 영향을 미칠 수 있고 비용도 들기 때문에 관련 투자를 소홀히 하는 경우가 많다"고 평가했다.
이윤호 동국대 경찰행정학부 명예교수는 "해악을 끼칠 수 있는 내용을 생성형 AI가 답변에 포함하지 않게끔 시스템을 구축해야 한다"며 "사회적 책임을 충분히 지도록 유도할 필요가 있다"고 강조했다.
jyseo@fnnews.com 서지윤 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지