AI시대, 활용과 맹신 사이
파이낸셜뉴스
2026.04.13 18:13
수정 : 2026.04.13 18:13기사원문
저녁 모임에서 화이트와인 몇 잔을 마신 뒤 두통이 올라오자 무심코 스마트폰을 꺼내 AI에 물었다. "알코올과 아세트아미노펜의 상호작용을 고려하면 최소 4~6시간 간격을 두는 것이 좋다"는 답에 그대로 따랐다.
친구와의 약속도 다르지 않다.
AI를 일상에서 활용하는 것은 더 이상 낯설지 않다. 불과 일년 전만 해도 "AI한테 건강을 묻다니"라며 고개를 저었을 사람들이 이제는 당연하다는 듯 어깨를 으쓱한다. 흐름은 전문 영역에서도 같다. 병원에서는 AI가 소견서 작성에 활용되고, 법률 분야에서도 소송 서면 초안에 AI가 쓰인다. 업무에서도 제안서 작성, 코드 개발, 회의록 정리, 번역 등 대부분의 작업에 AI가 들어왔다.
이 흐름은 다른 문제로 이어진다. 포털 검색은 링크를 보여줄 뿐 판단을 남겨두지만, AI는 다르다. 자신 있는 어투로, 정리된 형태의 답을 제시한다. AI의 진짜 위험은 틀린다는 데 있지 않다. 그럴듯하게 틀린다는 데 있다. 이른바 '할루시네이션'이다.
지난해 미국 뉴욕에서는 한 변호사가 AI가 생성한 소송 서면을 법원에 제출했다가 인용된 판례 대부분이 가짜임이 드러나 논란이 된 사건이 있었다.
영국에서도 유사한 사례가 터지자, 영국 고등법원이 AI가 만든 허위 자료를 변론에 쓴 변호인은 법정모독죄로 기소될 수 있다고 이례적으로 경고까지 했다. 변호사와 같은 전문가조차 AI의 답을 검증 없이 받아들이는 경우가 늘고 있다는 현실을 반영한다.
투자 분야도 다르지 않다. AI의 조언을 바탕으로 투자를 했다가 손실을 본 사례는 이미 주변에서 심심찮게 들을 수 있다. 문제는 손실 자체가 아니라, 그 판단의 근거가 AI였을 때 책임의 주체가 불분명해진다는 점이다.
최근 등장한 앤스로픽의 최신 모델 '미토스(Mythos)'는 이 문제를 산업과 국가 차원의 리스크로 끌어올렸다.
사이버보안 판도를 뒤흔들 수 있는 '괴물 AI'로 평가받는 이 모델은 스스로 취약점을 찾아내고 공격 코드까지 생성할 수 있는 수준으로 알려지며, 미국 백악관까지 대응에 나설 정도의 위기감을 안겼다. 수십년간 발견되지 않았던 보안 취약점을 자율적으로 찾아내는 '미토스'가 방어가 아니라 공격으로도 전환된다면 기존의 보안체계 자체가 무력화될 수 있다.
'AI 대부'로 불리는 제프리 힌튼은 향후 30년 내 인류가 AI로 인해 멸망할 가능성을 10~20%로 본다고 경고한다. 과장처럼 들릴 수 있지만, 적어도 한 가지는 분명하다. AI는 단순한 도구를 넘어 인간의 판단구조에 영향을 주는 단계로 들어섰다는 점이다.
그렇다고 AI 시대의 흐름을 막을 수 있을까. 이미 의료·업무·일상 전반에서 AI는 효율을 높이는 도구로 자리 잡았다. 하버드 공중보건대학에 따르면 AI 진단 활용 시 치료비용을 최대 50% 절감하고 건강 결과를 40%까지 개선할 수 있다는 연구도 있다.
결국 문제는 기술이 아니라 사용방식인 셈이다. AI에 묻는 것과 AI에 판단을 맡기는 것은 다르다. AI의 답을 참고할 것인가, 결론으로 받아들일 것인가. 그 선택은 여전히 우리에게 남아 있다.
yjjoe@fnnews.com
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지