IT 인터넷/SNS

패딩입은 교황, 내 콘텐츠 베끼는 AI...AI윤리 정립 시급 [생성AI 시대의 명암-上]

임수빈 기자

파이낸셜뉴스

입력 2023.04.02 16:45

수정 2023.04.02 16:45

관련종목▶

생성 AI 콘텐츠 카피캣, 가짜뉴스 문제 심화시켜
규제도 활발해지고 있지만 AI 윤리 확립도 중요
오픈AI의 대화형 AI 챗봇 챗GPT 홈페이지 화면 캡처
오픈AI의 대화형 AI 챗봇 챗GPT 홈페이지 화면 캡처

[파이낸셜뉴스] 생성 인공지능(AI) 기술이 고도화되면서 기술 악용 사례가 수면 위로 떠오르고 있다.

이미지 생성 AI 프로그램을 통해 가짜뉴스를 생산하는가 하면, 저작권이 있는 원본 콘텐츠를 순식간에 베껴가는 일이 빈번하게 발생하면서다. 이에 각국이 규제 칼날을 빼든 가운데, 'AI 윤리' 등 AI 신뢰성 확보 방안을 모색하기 위한 국내외 노력이 필요하다는 지적이다.

■인기 유튜브 콘셉트 베껴...저작권 침해 논란

최근 프란치스코 교황이 흰색 롱패딩을 입고 바티칸시국의 성 베드로 광장을 산책하는 모습을 담은 사진이 사회관계망서비스(SNS)에서 화제가 됐다. 하지만 이는 이미지 생성 AI인 미드저니를 이용해 만들어진 것으로 확인됐다. 미국 온라인 커뮤니티 레딧 캡처.
최근 프란치스코 교황이 흰색 롱패딩을 입고 바티칸시국의 성 베드로 광장을 산책하는 모습을 담은 사진이 사회관계망서비스(SNS)에서 화제가 됐다.
하지만 이는 이미지 생성 AI인 미드저니를 이용해 만들어진 것으로 확인됐다. 미국 온라인 커뮤니티 레딧 캡처.

2일 업계에 따르면 생성 AI 기술 발전과 함께 가짜뉴스에 대한 위험도 높아지고 있다.

이미지 생성 AI 서비스를 활용하면 사실 같은 이미지를 만들어낼 수 있어 가짜뉴스 영향력도 높아질 것이라는 우려다. 실제로 최근 프란치스코 교황이 흰색 롱패딩을 입고 바티칸시국의 성 베드로 광장을 산책하는 모습을 담은 사진이 사회관계망서비스(SNS)에 공개돼 화제가 됐다. 하지만 미국 CNBC 등 외신에 따르면 해당 사진은 이미지 생성 AI '미드저니'를 이용해 만들어진 사진으로 밝혀졌다.

생성 AI를 활용한 유튜브 콘텐츠 '카피캣(모방)'도 문제가 되고 있다.

최근 국내에서도 인기 유튜브 콘셉트를 AI 프로그램을 통해 똑같이 베낀 한 카피캣 채널 사례가 이슈가 됐다. 해당 채널은 '노아AI'라는 AI 프로그램을 활용해 유튜브에서 조회수가 높거나 화제를 끄는 영상을 추천 받았다. 이후 네이버 AI 음성기록 서비스 '클로바노트' 이용해 영상 대본을 추출, 글쓰기 관련 생성 AI인 '뤼튼'을 통해 시나리오를 작성한 것으로 알려졌다.

조원희 법무법인 디라이트 대표 변호사는 "콘텐츠를 만들어낸 AI 기술이나 생성AI 프로그램 자체는 문제가 되지 않는다"면서도 "원본 이미지나 동영상, 콘셉트에서 상당한 유사성이 있어 저작권 침해가 분명해 보이고, 향후 생성 AI 저작권 문제는 더욱 복잡해질 것"이라고 진단했다.

■규제만으론 해결 안 돼‥정부·기업 대책마련
글로벌 주요국의 AI 신뢰 확보 위한 정책 동향
국가 내용
유럽연합(EU) 세계 최초로 ‘인공지능 법안(2021년 4월)‘을 제안하고, 제정에 속도내는 중. AI의 3대요소(적법성, 윤리성, 견고성)를 제시
미국 주요 기업(IBM, MS, 구글 등)을 중심으로 윤리적 AI 실현을 위한 자율규제 전개 등
프랑스 공개토론을 통해 ‘인간을 위한 AI‘ 구현에 필요한 권고사항 도출 등
영국 공공부문 안전한 AI 활용을 위한 지침, 설명 가능한 AI 가이드라인 등 수립. 최근 AI백서 발간하고, AI가 활용되는 방식에 맞춘 상황별 접근방식을 마련할 것을 규제 당국에 촉구
(과학기술정보통신부 등)

생성 AI 사용법을 두고 각국의 고민이 깊어지고 있다. 규제 움직임도 활발하다.

유럽연합(EU)의 경우 지난 2021년 세계 최초로 'AI 법안(AI Act)'을 제안했다. 고위험AI를 중심으로 공급자 의무 부과, 적합성 평가 및 인증 등 규제를 선도하겠다는 목표다. 영국 정부도 최근 AI백서를 발간하고, AI 활용 방식에 맞춘 상황별 접근방식을 마련하라고 규제 당국에 촉구했다.

하지만 규제 등 법만으로는 문제를 해결할 수 없다는 회의적인 시각도 나온다. 기술 발전 속도가 매우 빨라 모든 케이스를 다 포함할 수 없을 뿐 아니라 자칫하다간 AI 기술패권에서 자국 기업들이 뒤처질 수 있기 때문이다.

이에 AI를 개발하고 사용하는 데 있어 필요한 윤리인 'AI 윤리'를 확립하기 위한 움직임도 빨라지고 있다. 국내에서도 AI 신뢰성을 확보하기 위한 노력이 진행되고 있다. 과학기술정보통신부는 지난해 AI 인공지능 윤리정책 포럼을 출범시켰다. 이는 AI의 윤리적 개발과 활용을 위한 논의를 촉진하기 위해 AI, 윤리, 교육, 법제도, 공공 등 다양한 분야의 각계 전문가가 참여한 포럼으로, AI 윤리 문제에 대해 논의하고 있다.

기업 차원의 AI 윤리 확립을 위한 시도도 있다. 대표적으로 초대규모 AI '하이퍼클로바'를 개발 중인 네이버는 2021년 AI 윤리 준칙을 발표한 바 있다.
AI 윤리 준칙은 네이버의 모든 구성원이 AI 개발과 이용에 있어 준수해야 하는 원칙으로 △사람을 위한 AI 개발 △다양성의 존중 △합리적인 설명과 편리성의 조화 △안전을 고려한 서비스 설계 △프라이버시 보호와 정보 보안의 총 5개 조항으로 구성돼 있다.

soup@fnnews.com 임수빈 김미희 기자

fnSurvey