-2년내 전세계 정부 80%가 AI로 행정의사 결정...가트너
-AI 확산에 아웃소싱 대국 인도 직격탄
[파이낸셜뉴스] 인공지능(AI)을 완전자율 무기나 대규모 감시 체계에 사용하는 것을 반대하며 미국 국방부와 갈등을 빚고 있는 앤트로픽이 자사 AI 기술의 ‘재앙적 오용’을 막기 위해 화학무기 및 폭발물 전문가 채용에 나섰다.
17일(현지시간) BBC는 앤트로픽이 화학무기·고폭발물·방사성 무기(일명 ‘더티밤’) 등에 대한 전문 지식을 갖춘 인력에 대한 채용 공고를 냈다. 앤트로픽은 이번 채용에 대해 "AI가 위험기술과 관련된 정보를 생성하거나 조언하는 상황을 사전에 차단하기 위한 조치"라고 설명했다.
이번 채용은 생성형 AI의 확산으로 인해 일반 사용자도 무기 제조 관련 정보에 접근할 가능성이 커졌다는 우려를 반영한 것으로 풀이된다. 앤트로픽은 특히 자사 모델이 악용될 경우 대량살상무기 개발 등으로 이어질 수 있는 위험성을 경계하고 있다.
오픈AI 역시 유사한 대응에 나섰다. 오픈AI도 생물·화학 위험을 연구하는 전문가를 채용 중이며, 일부 직군의 연봉은 45만 달러(약 6억 6937만원) 수준에 달하는 것으로 알려졌다.
2028년까지 전 세계 정부 80%, AI 에이전트로 행정 의사결정 자동화
IT리서치 기업 가트너는 2028년까지 전 세계 정부의 최소 80%가 일상적인 행정 의사결정을 자동화하기 위해 AI 에이전트를 도입할 것이라고 전망했다.
가트너는 17일 발표한 보고서에서 공공부문이 행정 효율성과 서비스 속도를 높이기 위해 AI 에이전트 기반 자동화 시스템을 적극 도입할 것이라고 전망했. AI 에이전트는 데이터를 분석해 목표를 수행하고 의사결정을 지원하거나 직접 실행하는 소프트웨어 시스템을 의미한다.
보고서는 각국 정부가 △민원 처리 △행정 승인 △규제 점검 등 반복적이고 규칙 기반의 행정 업무를 AI가 처리하도록 하는 방향으로 전환하고 있다고 설명했다. 이를 통해 공공기관은 업무 처리 속도를 높이고 인력 부담을 줄일 수 있을 것으로 전망된다. 그러면서 AI가 행정 의사결정에 직접 관여하는 만큼 투명성과 책임성 확보가 핵심 과제로 부상하고 있다고 덧붙였다. 따라서 2029년까지 정부 기관의 70%가 시민 서비스에 영향을 미치는 자동화 의사결정에 대해 ‘설명가능한 AI(XAI)’와 인간 감독 체계를 의무적으로 도입할 것이라고 전망했다.
설명가능한 AI와 인간 감독(Human-in-the-loop) 체계는 AI가 어떤 논리로 결정을 내렸는지 확인하고, 필요할 경우 이를 검증하거나 이의를 제기할 수 있도록 하는 장치다. 이러한 구조는 공공부문에서 AI 의사결정의 신뢰성을 확보하기 위한 핵심 요소로 꼽힌다.
AI 확산에 'IT 아웃소싱 대국' 인도 주가 급락
인공지능(AI)이 인도의 3000억 달러(약 446조원) 규모 아웃소싱 사업을 대체할 것이라는 위협에 인도 기술주가 급락하고 있다. 앤트로픽의 에이전트인 클로드(Claude)가 주요 법률, 규정 준수 및 데이터 프로세스를 자동화할 수 있을 것이라는 전망과 함께 대형 소프트웨어 기업을 중심으로 미국 나스닥이 급락했던 것과 같은 이유다.
17일 BBC는 AI가 전통적인 소프트웨어 및 IT 주식의 글로벌 조정을 유인하는 일환으로 인도의 기술주 매도세가 이어지고 있다고 보도했다. 이는 미국-이란 전쟁이라는 지정학적 불확실성으로 인한 시장 불안에 앞서 발생했으며, 특히 인도에 중요한 의미를 지닌다고 분석했다.
지난 35년간 인도의 소프트웨어 산업은 수백만 개의 사무직 일자리를 창출하며 높은 포부와 강력한 구매력을 가진 새로운 중산층을 형성해 왔다.
글로벌 투자은행 제프리스는 보고서를 통해 인도 IT 아웃소싱 기업들이 은행이나 석유 회사 같은 고객으로부터 소프트웨어 운영 및 유지 관리, 버그 수정, 업데이트 처리 등에 대해 벌어들이던 매출 성장률이 향후 5년간 3% 감소하고 2031년 이후에는 성장이 정체될 것이라는 전망을 내놨다.
cafe9@fnnews.com 이구순 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지