유럽 AI법 '저작권 지침', 콘텐츠 활용 대가 요구 쉬워졌다

김고은 기자 2024. 3. 28. 18:24
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 학습 활용된 콘텐츠 '충분히 상세한' 설명 의무
EU AI법, 국내 AI 규제 도입에 시사점

유럽연합(EU)이 세계 최초로 인공지능(AI) 기술을 규제하는 법안(AI ACT)을 통과시켰다. AI의 허용이냐 제한이냐 하는 이분법적 접근을 벗어나 AI가 초래할 수 있는 위험을 4개 등급으로 나눠 차등 규제하는 것이 핵심으로, AI 규제 관련 논의가 시작 단계인 한국에도 참고 사례로써 여러 시사점을 던진다.

2023년 12월8일 보스턴의 한 휴대폰에 챗GPT가 생성한 컴퓨터 화면 이미지에 표시된 오픈AI의 로고가 보이고 있다. 유럽연합(EU) 의원들이 13일 EU 27개국의 인공지능(AI)법을 최종 승인했다. 이 법은 올해 말 발효될 예정이다. /AP 뉴시스

한국언론진흥재단은 28일 EU의 AI법 주요 내용과 미디어 업계 영향 등을 검토한 미디어정책리포트를 발간했다. 박영흠 언론재단 선임연구위원과 오세욱 책임연구위원이 작성한 리포트에 따르면 지난 13일(현지시각) 유럽의회 본회의를 통과한 법안의 핵심은 AI 활용 분야를 네 단계의 위험 등급으로 나눠 차등 규제하는 데 있다.

법안은 AI가 초래할 수 있는 위험을 평가해 △수용 불가능한 위험(unacceptable risk) △고위험(high risk) △제한적 위험(limited risk) △저위험(minimal risk) 등 4단계로 분류하고, 위험도에 따라 특정 기술을 원천 금지하거나 제한 없이 허용한다.

언론사, AI ‘제공자’냐 ‘배포자’냐 따라 의무도 달라

먼저 ‘수용 불가능한 위험’은 인간의 의사결정 능력을 손상시켜 특정 행동을 유도하는 시스템, 인간의 생체인식 데이터를 기반으로 종교적 신념, 성적 지향 등 개인적 속성을 추론해 인간을 분류하는 시스템 등을 가리키며 개발과 시장 출시 등이 원천 금지된다. 영화 ‘마이너리티 리포트’와 유사한 범죄 예측 시스템도 허용하지 않는다. 이를 위반할 경우 최대 3500만 유로(약 500억원)와 연간 세계 매출액의 7%에 해당하는 금액 중 더 큰 금액을 과징금으로 부과해 강력하게 처벌한다.

도로 교통, 전력 공급 등 핵심 기반시설의 관리·운영에 사용되는 시스템처럼 인간의 건강과 안전 등에 영향을 미칠 수 있는 ‘고위험’의 AI 기술은 위험관리시스템 수립, 기록 보존, 인간에 의한 감독 등 매우 높은 수준의 의무 요건을 준수하는 경우에만 시장 출시나 서비스 제공이 가능하다. 이 ‘고위험’ 관련 의무 조항을 위반하면 최대 1500만 유로(약 215억 원) 또는 연간 세계 매출액의 3%에 해당하는 금액 중 더 큰 금액을 과징금으로 부과한다.

‘제한적 위험’ 등급은 인간과 상호작용하는 AI 시스템이나 딥페이크 등으로 투명성(transparency) 의무 대상이 되며, 가장 낮은 ‘저위험’ 등급은 별도의 규제 없이 투명성 등 자율적인 행동 강령 수립 및 준수를 권고받는다.

/한국언론진흥재단 미디어정책리포트 2월호

언론사가 콘텐츠 추천에 AI 시스템을 활용하는 건 저위험 등급에 해당한다. 다만 AI 시스템을 활용해 기사나 이미지 등 콘텐츠를 자동 생성할 땐 딥페이크 가능성 때문에 투명성 조치 준수 의무를 진다. 언론사가 이용자 데이터를 수집, ‘역동적 지불장벽(dynamic paywall)’ 방식으로 유료 과금 체제를 운영할 때도 이용자가 AI와 상호작용하고 있다는 사실을 인지할 수 있도록 투명하게 알려야 한다.

유의할 건 언론사가 AI 시스템의 배포자(deployer)와 제공자(provider) 중 무엇으로 규정되느냐에 따라 법 적용이 달라진다는 점이다. AI 시스템을 단순히 이용해 콘텐츠를 추천, 생성, 독자 분석 등에 활용하는 건 배포자로 규정돼 비교적 가벼운 의무를 지니지만, 제공자로 규정될 경우 더 강력한 책임과 의무를 갖는다. AI법에선 기존 AI 시스템을 개조하는 경우도 제공자로 간주하는데, 이 개조의 범위가 어디까지인지는 아직 명확히 규정되지 않았다.

AI 학습 콘텐츠 ‘충분히 상세한’ 설명 제공 의무

법안은 또 챗GPT 등 범용 AI 모델 제공자(provider)가 저작권 지침을 준수해야 한다고 명시하며, AI 모델의 학습 과정에서 사용된 콘텐츠에 대해 정해진 양식에 따라 ‘충분히 상세한 요약’을 공개적으로 제공하도록 규정했다. 이에 따라 언론사는 자사 콘텐츠의 학습 여부를 쉽게 파악할 수 있게 되고, 정당한 대가를 요구하는 것도 가능해진다. AI의 뉴스 활용에 따른 저작권 분쟁이 가시화된 한국 사회에서도 주요하게 참고할 대목이다.

법안은 향후 검토 절차와 이사회 최종 승인을 거쳐 발효된다. 이후 6개월 뒤 원천 금지 시스템부터 단계적으로 시행돼 36개월 이내에는 전면 적용될 예정이다.

해당 법안은 EU 회원국 내에서 실시되는 것이어서 국내 미디어 업계에 직접 미치는 영향은 없다. 다만 세계 최초의 AI 규제 사례인 만큼 국내에서도 중요한 참고자료로 활용될 가능성이 크다. 연구진은 “특히, AI 시스템이 학습하는 콘텐츠에 대한 ‘충분히 상세한’ 설명을 하도록 규정한 부분은 향후 국내에서 관련 법제 도입 시 고려해야 할 부분으로 보인다”며 “언론사 기사 콘텐츠의 공정 이용 여부는 아직 논쟁 중이지만, 그 여부와 상관없이 학습에 사용되었다는 점을 고지하도록 하는 것은 향후 중요한 문제로 판단된다”고 전했다.

Copyright © 기자협회보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?