더 큰 문제는 기초지식이 부족한 상태에서 AI의 '그럴듯한 오류'를 그대로 받아들이는 상황이다. 대학에서는 챗GPT가 만들어낸 가짜 참고문헌을 인용해 제출하는 사례가 늘고 있고, 해외에서는 의료상담 챗봇의 잘못된 조언을 신뢰한 환자가 위험에 처할 뻔한 일도 있었다. 기본적인 지식의 틀이 없다면 AI의 답이 옳은지 판단할 힘이 없다. 아이러니하게도 AI가 고도화될수록 인간의 기초지식이 오히려 더 중요해지는 이유다. 지금 필요한 것은 무조건적 금지가 아니라 명확한 기준과 새로운 방향성을 제시하는 것이다.
최근 교육부가 AI 가이드라인과 윤리교육 콘텐츠 개발을 발표한 것은 늦었지만 환영할 만한 일이다. 규범 제시에 그칠 것이 아니라 학습과 평가 방식을 'AI 활용을 전제로 한 구조'로 전환할 필요가 있다. 핵심은 AI를 학습 효율을 높이고 사고를 확장하는 러닝 도구로 재배치하는 것이다. 기초지식의 습득은 필수적이다. 기본 개념이 체화돼야 AI가 제공한 정보를 이해하고 검증할 수 있다. 화학기호를 모르면 약 성분을, 인체 구조를 모르면 의료정보를 제대로 해석할 수 없는 것처럼 말이다. 따라서 기초 단계에서는 필기시험이나 대면·구술 평가 등으로 학습자의 지식과 이해도를 직접 확인하는 평가가 강화돼야 한다.
응용 단계에서는 AI를 능동적 학습 도구로 활용해야 한다. AI 답을 베끼는 대신 AI가 작성한 글의 논리적 허점을 찾거나 여러 해결책 중 최적안을 선택해 이유를 설명하도록 하는 방식이다. 이를 통해 단순히 AI를 쓸 줄 아는 것을 넘어 AI의 작동 원리, 한계, 위험, 적절한 활용 맥락을 판단하는 'AI 리터러시'를 기를 수 있다.
AI 시대의 핵심 역량은 '휴먼 슈퍼비전(Human Supervision)', 즉 AI의 답을 비판적으로 검토하고 최종 판단을 책임지는 인간의 능력이다. 이러한 역량은 탄탄한 기초지식을 바탕으로만 발휘된다. 결국 학생들이 무엇을 기계에 맡기고 무엇을 인간의 머리에 남길지 판단하는 지혜를 갖추는 것이 중요하다. AI 커닝의 유혹을 넘어 사고를 확장하는 학습의 동반자로 AI를 활용할 때 비로소 진정한 'AI 러닝'의 시대가 열릴 것이다.
문애리 한국여성과학기술인 육성재단 이사장
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지