'AI 혁명? 핵심은 인간'…세계 석학 4인 한 목소리

파이낸셜뉴스       2025.12.10 14:38   수정 : 2025.12.10 14:58기사원문
스탠퍼드·콜롬비아·미시간·버지니아大 석학들이 본 AI와 경영의 미래 아이젠하트 "AI 버블, 닷컴 버블과 닮았지만 중요한 건 '가치 창출'" 조하르 "AI 시대, '건강한 불신'과 '적절한 신뢰' 모두 필요" 젠슨 "AI로 인한 실업 대비해 국가적 완충 장치 필요" 사커 "AI 둘러싼 담론들, 서로 침묵시키기도…균형 필요"

[파이낸셜뉴스] 인공지능(AI)이 산업 구조와 기업 전략을 뒤흔들고 있지만, 정작 미래를 결정짓는 핵심 변수는 가치 창출·신뢰 구조·인간 지위 등이라는 진단이 나왔다. 8일 서울 연세대학교에서 'AI와 비즈니스의 미래'를 주제로 개최된 제4회 YVIP 국제학술대회에서 전 세계 석학들은 AI를 둘러싼 여러 쟁점들과 관련해 열띤 논의를 펼쳤다.

캐슬린 아이젠하트 "AI 실험 90% 실패…중요한 건 '버블'이 아니라 '가치'를 만드는가"
캐슬린 아이젠하트 스탠퍼드대 교수는 최근 등장한 AI 버블론을 언급하며 "투자·인프라 버블은 투자자의 문제"라며 "일반 사용자와 기업에 중요한 것은 AI가 실제 가치를 만들어내는지 여부"라고 말했다.

그는 "현재 AI 버블이 2000년 전후의 닷컴 버블과 닮았지만, 혼란스러웠던 그 당시에도 시장은 결국 새로운 균형을 찾아갔다"고 부연했다.

그는 미국 핀테크 클라르나의 사례를 들며 "기업의 AI 실험 중 90%가 실패한다"고 설명했다. 이어 그는 한 항공사의 시범 도입 사례를 제시하며 "대화형·상황 대응형 업무는 AI가 뛰어났지만, 안정성·정확성이 필요한 업무는 기존 방식이 더 우수한 경우가 많았다"면서 "핵심은 인간·AI의 최적 조합 능력"이라고 강조했다.

아이젠하트 교수는 "사람들은 AI가 자기 생산성을 실제보다 훨씬 높여준다고 과대평가하는 경향이 있다"며, '개인과 조직이 AI를 어떻게 활용할지'가 기술 그 자체보다 더 큰 불확실성이라고 짚었다.

기타 조하르 "AI 도입 최대 리스크는 신뢰 양극화…'불신'도 '과신'도 독"
기타 조하르 컬럼비아대 교수는 AI 도입의 가장 큰 난관으로 '신뢰 부족'과 '과도한 신뢰'를 동시에 지적했다.

그는 △개인정보 유출 우려 △책임 불명확성 △편향 △설명력 부족 등으로 인해 국제 설문에서 대부분 국가의 AI 신뢰도가 50% 미만이라고 설명했다.

반면 AI를 실제로 사용하는 사람들 사이에선 오히려 지나친 신뢰가 나타난다고 했다. 챗봇의 공손함과 인간 같아 보이는 특성 때문에 '관계적 신뢰'가 형성되고, 이로 인해 민감한 의료 조언까지 AI에 과도하게 의존하는 현상이 나타난다고 경고했다.

아울러 그는 딥페이크 확산이 기업 평판을 훼손하는 속도를 지적하며 "정정돼도 사람들의 인식은 원상복구되지 않는다"고도 짚었다. 그러면서 "AI에 대한 건강한 불신과 적절한 신뢰가 동시에 필요하다"며 "초기 단계부터 시민·학계가 함께 규제 논의에 참여해야 한다"고 강조했다.

마이클 젠슨 "AI는 계산기일 뿐…경영은 결국 '치맥 회동' 같은 인간적 연결로 돌아가"
마이클 젠슨 미시간대 교수는 기술이 아무리 고도화돼도 조직을 움직이는 지위·인정 욕구는 사라지지 않는다고 말했다. 젠슨 교수는 "AI가 '하위권' 인간의 업무를 대체할 수는 있어도 최고 의사결정자의 역할은 대체 불가능하다"며 "왜(why)를 설명하고 책임·대외관계를 수행하는 영역은 인간만의 것"이라고 설명했다.

그는 이른바 '깐부치킨 회동(이재용·정의선·젠슨 황)'을 예로 들며, "세계적 리더들조차 중요한 일은 결국 마주 앉아 먹고 대화하는 방식으로 해결한다. 경영은 인간적 교류가 핵심"이라고 강조했다.

이어 노동시장과 관련한 질문을 받자 그는 "AI 도입으로 일부 직무가 실제로 대체되겠지만, 테크 기업의 최근 감원 대부분은 그 문제가 아니라 AI 투자비 마련 때문"이라며 지나친 공포를 경계했다. 대신 그는 '젊은 세대가 학습 기회를 잃는 것'을 가장 위험한 시나리오로 꼽으며 북유럽식 '유연안정성(flexicurity)' 모델 등 국가적 완충 장치가 필요하다고 덧붙였다.

수프라틱 사커 "AI는 '끊임없이 확장하는 프런티어'…담론 논의 균형 필요"
수프라틱 사커 버지니아대 교수는 "AI가 전기나 불보다 혁명적이라는 주장부터, 노동이 사라질 것이라는 전망, 심지어 'AI 1년 연구하면 신을 믿게 된다'는 말까지 나온다"면서 과열된 기대와 공포가 공존하는 현실 자체가 AI 관련 논의의 복잡성을 증명해준다고 말했다.

그는 AI를 둘러싼 네 가지 주요 담론 △혁신 △협업 △윤리 △실존적 위협 담론을 제시하며, 이들이 서로를 침묵시키며 현실을 왜곡한다고 지적했다. 그러면서 "윤리 논의는 기술 개발 뒤에 따라오는 것이 아니라, 동시에 진행돼야 한다"고 강조했다.


또한 그는 AI 사용 증가로 사람들의 고차원적 사고력이 약화되는 문제를 짚으며, "사람들이 '계산기 나왔을 때도 그랬다. 그런데 지금 잘 살지 않느냐'라는 식으로 이 문제를 축소하려 한다"면서 "그러나 계산기와 생성형 AI는 같지 않다. 기술 의존으로 인한 탈숙련의 역사가 있었다고 해서 지금 상황도 똑같이 흘러갈 것이라고 단정할 순 없다"고 목소리를 높였다.

whywani@fnnews.com 홍채완 기자

Hot 포토

많이 본 뉴스