사설·칼럼 강남시선

[강남視角] AI시대, 활용과 맹신 사이

조윤주 기자

파이낸셜뉴스

입력 2026.04.13 18:13

수정 2026.04.13 18:13

조윤주 정보미디어부 부장
조윤주 정보미디어부 부장
"와인 마셨는데 타이레놀 먹어도 될까?"

저녁 모임에서 화이트와인 몇 잔을 마신 뒤 두통이 올라오자 무심코 스마트폰을 꺼내 AI에 물었다. "알코올과 아세트아미노펜의 상호작용을 고려하면 최소 4~6시간 간격을 두는 것이 좋다"는 답에 그대로 따랐다.

친구와의 약속도 다르지 않다. 식당을 추천받고, 비교하고, 예약까지 이어진다. 과거 포털에서 가격과 정보를 일일이 비교하던 방식도 점차 사라지고 있다.

오픈AI와 신세계그룹의 협업으로 등장할 AI 쇼핑 에이전트는 '어디가 더 싼지'를 검색하는 대신 묻고 바로 구매로 이어지는 흐름을 예고한다. 과거 SF영화에서나 그려졌던 의료 조언을 AI에 구하고, 약을 AI 추천으로 사고, 약속 장소를 AI가 정해주는 세상이 현실에 열린 셈이다.

AI를 일상에서 활용하는 것은 더 이상 낯설지 않다. 불과 일년 전만 해도 "AI한테 건강을 묻다니"라며 고개를 저었을 사람들이 이제는 당연하다는 듯 어깨를 으쓱한다. 흐름은 전문 영역에서도 같다. 병원에서는 AI가 소견서 작성에 활용되고, 법률 분야에서도 소송 서면 초안에 AI가 쓰인다. 업무에서도 제안서 작성, 코드 개발, 회의록 정리, 번역 등 대부분의 작업에 AI가 들어왔다.

이 흐름은 다른 문제로 이어진다. 포털 검색은 링크를 보여줄 뿐 판단을 남겨두지만, AI는 다르다. 자신 있는 어투로, 정리된 형태의 답을 제시한다. AI의 진짜 위험은 틀린다는 데 있지 않다. 그럴듯하게 틀린다는 데 있다. 이른바 '할루시네이션'이다.

지난해 미국 뉴욕에서는 한 변호사가 AI가 생성한 소송 서면을 법원에 제출했다가 인용된 판례 대부분이 가짜임이 드러나 논란이 된 사건이 있었다.

영국에서도 유사한 사례가 터지자, 영국 고등법원이 AI가 만든 허위 자료를 변론에 쓴 변호인은 법정모독죄로 기소될 수 있다고 이례적으로 경고까지 했다. 변호사와 같은 전문가조차 AI의 답을 검증 없이 받아들이는 경우가 늘고 있다는 현실을 반영한다.

투자 분야도 다르지 않다. AI의 조언을 바탕으로 투자를 했다가 손실을 본 사례는 이미 주변에서 심심찮게 들을 수 있다. 문제는 손실 자체가 아니라, 그 판단의 근거가 AI였을 때 책임의 주체가 불분명해진다는 점이다.

최근 등장한 앤스로픽의 최신 모델 '미토스(Mythos)'는 이 문제를 산업과 국가 차원의 리스크로 끌어올렸다.

사이버보안 판도를 뒤흔들 수 있는 '괴물 AI'로 평가받는 이 모델은 스스로 취약점을 찾아내고 공격 코드까지 생성할 수 있는 수준으로 알려지며, 미국 백악관까지 대응에 나설 정도의 위기감을 안겼다. 수십년간 발견되지 않았던 보안 취약점을 자율적으로 찾아내는 '미토스'가 방어가 아니라 공격으로도 전환된다면 기존의 보안체계 자체가 무력화될 수 있다.

'AI 대부'로 불리는 제프리 힌튼은 향후 30년 내 인류가 AI로 인해 멸망할 가능성을 10~20%로 본다고 경고한다. 과장처럼 들릴 수 있지만, 적어도 한 가지는 분명하다. AI는 단순한 도구를 넘어 인간의 판단구조에 영향을 주는 단계로 들어섰다는 점이다.

그렇다고 AI 시대의 흐름을 막을 수 있을까. 이미 의료·업무·일상 전반에서 AI는 효율을 높이는 도구로 자리 잡았다. 하버드 공중보건대학에 따르면 AI 진단 활용 시 치료비용을 최대 50% 절감하고 건강 결과를 40%까지 개선할 수 있다는 연구도 있다.


결국 문제는 기술이 아니라 사용방식인 셈이다. AI에 묻는 것과 AI에 판단을 맡기는 것은 다르다.
AI의 답을 참고할 것인가, 결론으로 받아들일 것인가. 그 선택은 여전히 우리에게 남아 있다.

yjjoe@fnnews.com