[파이낸셜뉴스] 챗GPT를 대표로 하는 생성형 인공지능(AI)은 우리 삶에서 떼려야 뗄 수 없는 존재가 되어가고 있다. 그러나 이러한 AI의 말을 아무 검증 없이 믿고 따르기엔 아직 위험하다는 사실을 증명해준 사례가 미국에서 발생했다.
미국의 한 60대 남성이 챗GPT의 식이요법 조언을 따랐다가 정신병원에 입원했다. 12일(현지시간) 더힐 등 복수의 매체가 내과 임상 사례 저널을 인용해 보도한 바에 따르면, 이 남성은 소금이 건강에 미치는 부정적인 영향에 대해 알게 된 뒤, 식단에서 소금을 대체할 만한 방법을 찾고 있었다.
챗GPT에게 물어본 결과, 브롬화나트륨을 소금(염화나트륨) 대신 넣으라는 조언을 받은 이 남성은 인터넷으로 브롬화나트륨을 구매해 3개월간 소금 대신 섭취했다.
시간이 지나면서 그의 몸에는 독성이 축적됐고, 급기야 이웃이 자신을 독살하려 한다는 망상에 사로잡혔다. 결국 그는 편집증과 환각 등 심각한 정신 질환으로 응급실에 실려 갔다. 검사 결과는 브롬화물 중독이었다.
이 남성은 입원한 뒤에도 병원에서 주는 물에 독이 들었을 수 있다며 마시지 않았고, 병원에서 탈출하려다 강제 입원을 당하기도 했다. 다행히 전해질, 항정신병 약물 등을 투여받으며 꾸준히 치료한 결과, 입원 3주 만에 증상이 완화돼 퇴원한 것으로 전해졌다.
이 남성의 사례를 과학계에 보고한 저자들은 "의료 전문가가 염화나트륨의 대체품을 찾는 환자에게 브롬화나트륨을 언급했을 가능성은 거의 없다"며 "인공지능(AI)은 과학자와 일반인 사이에 가교 역할을 할 잠재력을 지닌 도구지만 맥락이 없는 정보를 유포할 위험도 수반하고 있다"고 경고했다.
bng@fnnews.com 김희선 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지