생성형 AI 확산, 넷플·유튜브 대응은?…국책기관 보고서 발간

KISDI, 넷플릭스 및 유튜브 '생성형 AI 활용 가이드라인' 동향 분석

ⓒ 로이터=뉴스1

(서울=뉴스1) 이기범 기자 = 생성형 인공지능(AI) 콘텐츠 확산에 따라 저작권 문제 및 저품질 콘텐츠(AI 슬롭) 등 각종 논란이 불거지고 있는 가운데, 넷플릭스와 유튜브 등 글로벌 빅테크들의 대응 방안을 분석한 보고서가 나왔다.

정보통신정책연구원(KISDI)은 '온라인 영상 플랫폼의 생성형 AI 활용 가이드라인 동향' 보고서를 발간했다고 9일 밝혔다.

보고서에 따르면 넷플릭스는 지난해 8월 제작 파트너와 벤더 업체를 대상으로 '생성형 AI 활용 가이드라인'을 배포하며 콘텐츠 제작 단계에서의 AI 활용 기준을 제시했다.

해당 가이드라인은 △저작권 보호 △데이터 학습 방지 △보안 환경 사용 △임시 활용 원칙 △출연자 권리 보호 등 다섯 가지 핵심 원칙을 중심으로 제작 과정에서 발생할 수 있는 법적·윤리적 리스크를 관리할 수 있도록 설계됐다. 창작 자율성을 유지하면서도 제작 공정의 투명성을 확보하는 관리 체계를 마련한 점이 특징이다.

유튜브는 콘텐츠 유통 단계에서 AI 투명성을 강화하는 정책을 추진 중이다. 지난해 5월부터 AI 생성 콘텐츠를 대상으로 AI 사용 표기를 의무화했다. 이를 이행하지 않을 경우 콘텐츠 삭제나 수익 창출 제재 자격 정지 등 제재를 가할 수 있다. 이어 지난해 7월에는 수익 창출 정책을 개정해 AI를 활용해 대량 제작된 콘텐츠를 '진정성 없는 콘텐츠'(inauthentic content)로 분류하고 수익 창출을 제한하는 기준을 도입했다.

보고서는 두 플랫폼이 '투명하고 안전한 AI 콘텐츠 생태계 조성'이라는 공통된 목표를 지향하고 있다고 분석했다. 넷플릭스는 제작 단계에서 준수해야 할 최소 원칙을 제시함으로써 규제 공백 상황에서 AI 활용에 따른 법적·윤리적 리스크를 선제적으로 관리하려는 접근을, 유튜브는 AI 생성 여부 공지 의무와 수익 창출 제한 정책을 통해 콘텐츠 투명성과 플랫폼 신뢰도를 높이려는 전략을 추진하고 있다고 짚었다.

노은정 KISDI 부연구위원은 "생성형 AI 기술이 영상 제작 환경 전반으로 확산되는 상황에서 플랫폼 차원의 자율적 기준 마련이 콘텐츠 산업의 새로운 관리 방식으로 자리 잡고 있으며, 향후 AI 기반 콘텐츠의 투명성과 신뢰성을 확보하기 위한 정책 논의가 더욱 중요해질 것"이라고 밝혔다.

Ktiger@news1.kr