[스크린에 들어온 AI③] AI법이 온다…영화의 'AI 사용 표시'와 공정이용을 둘러싼 논쟁

전지원 2026. 1. 18. 14:03
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

영화계 "AI 사용 여부 이분법으로 나누기보다 핵심 정보 고지가 우선"

1월 22일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(이하 AI 기본법)이 시행되면 한국은 사실상 세계에서 가장 먼저 포괄적인 AI 법규를 실제로 적용하는 나라가 된다. AI 기본법은 인공지능 기술을 무조건 규제하기보다는 "건전한 발전을 지원하고 신뢰 기반을 조성한다"는 목적을 내세운다.

ⓒ과학기술정보통신부

그러나 이러한 목적과 달리 영화·OTT·게임 등 콘텐츠 업계에서는 일부 조항이 현장의 현실과 얼마나 맞닿아 있는지에 대한 우려도 나온다. 특히 AI로 만든 영상·음향을 어디까지, 어떤 방식으로 표시해야 하는지에 대한 논의는 영화계의 관심사다.

이 가운데 영화·OTT 업계가 가장 민감하게 보는 조항이 제31조다. 이 조항은 실제와 구분하기 어려운 가상의 음향·이미지·영상 결과물을 제공하는 경우, 이용자가 그것이 인공지능이 생성한 것임을 명확히 알 수 있도록 고지·표시하도록 의무를 부과한다. 예술적·창의적 표현물이라도 전시·향유를 저해하지 않는 범위 안에서 표시해야 한다는 전제를 뒀지만 기본 방향은 실제와 헷갈릴 수 있는 AI 영상은 표시해야 한다는 것이다.

문제는 이 고지 의무가 현장의 제작 관행과 정확히 어떻게 적용될지다. 과학기술정보통신부가 입법예고한 시행령(안)은 계약서·이용약관·화면 고지 같은 사람 눈에 보이는 방식과 메타데이터·워터마크 등 기계 판독 방식을 예로 들면서 내부 업무용 등 이용자에게 결과물이 제공되지 않는 경우는 예외로 두고 있다. 하지만 유작 후시 녹음 몇 줄부터 AI로 만든 크리처와 배경이 섞인 장편 상업영화까지, AI 활용 방식이 다양한 현실에서 어떤 수준까지 'AI 생성물'이라고 표시해야 하는지에 대해서는 아직 업계와 정부 모두 뚜렷한 기준을 갖고 있지 못하다. 영화계에서는 "표시 의무 자체는 필요하지만, 모든 콘텐츠에 일괄적으로 딱지를 붙이는 방식은 현실성이 떨어진다"는 우려도 나온다.

국가인공지능전략위원회가 2025년 12월 발표한 '대한민국 인공지능 행동계획(안)'도 영화계에 직접적인 영향을 주는 내용을 담고 있다. 98개 과제 가운데 액션플랜 32번 'AI 학습·평가 목적의 저작물 활용 및 유통 생태계 활성화'는 AI 확산으로 대규모 데이터 학습이 중요해졌지만 현행 저작권법 공정이용 조항만으로는 기준이 모호해 기업이 매번 개별 협의를 해야 하는 법적 불확실성을 해소해야 한다고 진단한다.

행동계획은 이를 해결하기 위해 저작권법 개정을 통해 인공지능 학습·평가 목적으로 저작물을 활용할 수 있는 범위를 명확히 하고 동시에 학습 허용 범위 설정, 학습 금지 표시 제도, 학습 투명성, 저작권자 보호와 정당한 보상 방안 등을 마련하라고 권고한다. 요약하면 'AI가 학습할 수 있는 데이터 풀을 넓히되, 표시와 보상 장치를 통해 상생 생태계를 만들겠다'는 취지다.

이에 '대한민국 창작자 연대'는 이달 발표한 성명서에서 행동계획을 두고 "AI 기술 패권을 위해 창작자를 희생시키는 계획"이라고 규정하며 전면 재검토를 요구했다. 창작자 연대는 특히 액션플랜 32번을 두고 "AI 기업이 저작권자의 이용 허락 없이도 저작물을 법적 불확실성 없이 사실상 무상으로 활용할 수 있도록 법적 장벽을 제거하려는 방향을 노골적으로 드러내고 있다"고 비판했다. 공정이용은 저작자의 정당한 이익을 부당하게 해치지 않는 제한된 경우에만 허용되는 예외인데 이를 AI 기업의 영리 목적을 위한 포괄적 면책 근거로 삼으려 한다는 주장이다.

또한 행동계획이 창작자 보호 방안으로 제시한 '옵트아웃', 즉 AI 학습 거부 의사표명 제도에 대해서도 "기계가 읽을 수 있는 형식으로 구현해야 보호받는 구조"라며 실효성을 문제 삼았다. 하루하루 생계를 위해 창작에 몰두하는 개인 창작자가 이런 기술 역량과 자본을 갖추기는 사실상 불가능하기 때문에 "대다수 창작자의 권리는 기술적 장벽 앞에 무력화될 것"이라는 주장이다.

창작자 연대는 "정부가 공정이용을 구실로 AI 기업이 창작물을 마구잡이로 사실상 무상으로 가져다 쓸 수 있는 환경을 조성하려 한다"며 선사용 후보상 방식의 정책 기조는 창작자의 사전 통제권과 협상력을 약화시키고 무상·저가 이용이 관행화된 뒤에는 정당한 보상 논의가 실효성을 가질 수 없다고 지적했다. 이들은 "글로벌 AI 3강이라는 목표가 아무리 중요해도 창작자의 권리를 희생시키는 잘못을 범하지 말라"고 촉구했다.

유럽연합(EU)은 우리보다 먼저 AI 규제 논의를 시작해 전반적인 규제 틀을 비교적 일찍 마련한 지역이다. 영화진흥위원회가 2025년 6월 발간한 'EU의 AI 규제 관련 영상 분야 쟁점' 리포트에 따르면 EU는 2024년 5월 인공지능과 인권·민주주의·법치를 다룬 국제조약을 채택했고 6월에는 위험 기반 접근을 택한 EU AI 규정을 채택했다.

EU AI 규정은 특히 사람과 직접 상호작용하는 AI와 범용 AI 모델(GPAI)에 강한 투명성 의무를 부과한다. 그러나 AI가 콘텐츠 제작 과정에서 활용됐을 경우 이 정보를 제작의 모든 과정에서 항상 밝혀야 하는지, 콘텐츠 배포자가 언제·어디에·어떤 방식으로 명시해야 하는지에 대한 정확한 지시는 아직 없다. 투명성을 원칙으로 하지만 실무 수준에서 어디까지 공개해야 하는지는 각국 규제당국과 업계 논의에 맡겨진 상태라는 의미다.

딥페이크에 대한 별도 규정도 있다. 존재하는 사람·사물·장소·행사·사건과 유사성을 띠어 진위 여부가 오인될 수 있는 시청각 콘텐츠의 경우, 배포자는 해당 출력물이 AI를 통해 생성·조작된 딥페이크임을 명기할 의무가 있다. 다만 '공공연한 창의적·풍자적·예술적·허구적 작업'에 해당하는 작품은 전시와 향유를 방해하지 않는 선에서 명기를 제한할 수 있고 후반작업에서 AI가 표준적 형태 제공을 위한 보조적 기능으로만 활용된 경우에는 의무에서 면제된다.

결국 먼저 AI 규제를 시행해 온 EU도 한국과 마찬가지로 AI 사용 사실을 어느 정도까지 드러낼 것인가라는 문제를 두고 여전히 해답을 찾는 중이다. 한국 AI 기본법이 세계 최초 시행이라는 상징을 안게 됐지만 구체적인 운용 방식은 유럽과 비슷하게 앞으로 몇 년간의 시행착오를 거쳐야 하는 셈이다.

ⓒ데일리안 AI 삽화 이미지

그렇다면 실제로 AI를 쓰고 있는 영화 현장은 어떤 기준으로 움직이고 있을까. 영화 제작사에 몸담고 있는 A씨는 AI 사용 여부를 이분법으로 나누기보다 관객의 경험이 실제로 달라지거나 권리·안전에 영향을 줄 수 있는 지점에 초점을 맞춰 최소한의 핵심 정보를 명확히 고지하는 방식이 현실적이라는 의견이다.

A씨는 가장 먼저 꼽은 건 관객 입력에 따라 장면과 대사가 실시간으로 생성·변형되는 상영 방식이다. 관객이 목소리나 선택을 입력하면 AI가 이를 분석해 화면 속 캐릭터의 대사와 상황이 달라지는 구조다. 그는 "이 경우에는 관객 입장에서도 '내 데이터가 지금 이 장면을 만드는 데 쓰이고 있다'는 사실을 알 수 있어야 한다"며 상영관 입구 안내문이나 앱 화면, 작품 시작 전 자막, 엔딩 크레딧 등을 통해 "본 작품은 AI가 관객 입력을 분석해 일부 장면과 대사를 실시간 생성·변형할 수 있다"는 정도의 문장을 표기하는 게 적절하다고 말했다.

반면 후반작업에서 배경·소품·일부 컷을 생성형 AI로 제작해 최종 편집본에 섞어 넣는 경우는 조금 다르게 본다. 관객이 사실로 오인할 소지가 있는 이미지나 실존 인물을 연상시키는 합성이라면 별도 고지가 필요하지만 일반적인 VFX 수준의 합성·보정·생성까지 일일이 "이 장면은 AI입니다"라고 표시하는 것은 현실성이 떨어진다는 지적이다. A씨는 "그런 작업은 원래도 CG·시각효과 영역에서 해오던 것과 다르지 않은 경우가 많다"며 "크레딧 기술 스태프 영역에서 '생성형 AI 기반 이미지·영상 도구 사용'정도로 범위를 적시하는 방식이 가장 현실적"이라고 의견을 밝혔다.

프리프로덕션 단계의 활용까지 모두 표기 대상으로 삼는 것도 비효율적이라는 입장이다. 그는 "아이디어 스케치나 콘셉트 아트, 번역, 초벌 편집 같은 건 최종 영상 안에 남지 않는 중간 산출물인 경우가 많다. 이런 것까지 전부 표기하라고 하면 현장에서는 관리도 어렵고, 관객에게도 의미 없는 정보만 늘어난다"는 것이다. 대신 A씨는 최종 결과물에 남는 생성물과, 관객 입력으로 결과가 달라지는 생성 기능을 우선 표기 대상으로 삼는 원칙이 필요하다고 제안했다.

A씨는 이 논의를 기존 CG와도 비교했다. 그는 "160년 영화 역사 동안 CG가 쓰인 장면마다 '이건 CG입니다'라고 안내하지 않았다. 음식의 모든 부분마다 MSG가 쓰였다고 재료명 옆에 따로 표시하지 않는 것과 비슷하다"며 "허구의 세계를 전제로 한 상업영화라면 앞부분에 '본 영화는 허구이며 실제 인물·사건과 무관하다'는 고지가 있듯이 AI도 작품 단위에서 '일부 장면에 AI가 활용됐다'는 수준의 안내면 충분하다고 본다"고 말했다.

한편 영화 관계자들이 꼽은 더 큰 고민은 AI 사용 여부 자체보다 권리와 책임의 경계가 어디까지인지 불분명한 부분이다. A씨는 "외부 AI 도구를 쓸 때 그 모델이 어떤 데이터로 학습됐는지 제작사가 확인하기 어렵다. 나중에 결과물이 특정 작가의 스타일을 침해했다거나 기존 저작물을 베꼈다는 분쟁이 생기면 책임이 제작사에 있는지, 도구 제공사에 있는지, 플랫폼에 있는지 현장은 불안이 크다"고 고충을 토로했다. AI 모델이 어떤 데이터셋으로 어떤 과정을 거쳐 학습되었는지 투명하게 공개되지 않는 한, 개별 감독과 제작사가 법적 위험을 온전히 떠안게 되는 구조에 대한 우려다.

배우의 얼굴·목소리·연기 톤을 합성하거나 대체하는 활용에 대한 걱정은 더 크다. A씨는 "얼굴과 성명은 물론 연기 톤까지 복제하는 일은 초상권·성명권·인격권, 계약상 사용 범위가 한꺼번에 얽혀 있는 영역"이라며 "앞으로는 사전 동의와 사용 범위, 보상 기준, 결과물의 보관·폐기 기준을 계약 단계에서 훨씬 더 촘촘하게 정리해야 한다는 부담이 커질 것"이라고 말했다.

넷플릭스가 처음에는 환영받는 플랫폼이었지만 시간이 지나면서 일부 국가에서는 자국 콘텐츠 생태계를 약화시켰다는 평가를 받는 상황이다. 기술 접목을 둘러싼 과도한 규제 완화나 무조건적인 수용은 나중에 되돌리기 어려운 구조를 만들 수 있다. 그러나, 혁신 자체를 막기보다는 동의·보상·투명성이라는 최소 기준을 분명히 하고 관객에게 의미 있는 범위에서의 고지 표준과 현장용 체크리스트를 업계가 빠르게 합의하는 것이 현실적인 해법이 될 것이다.

Copyright © 데일리안. 무단전재 및 재배포 금지.