AI가 만든 콘텐츠, 어떻게 표시해야 할까 [강민주의 디지털 법률 Insight]

강민주 2026. 4. 6. 09:00
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 콘텐츠 '표시 의무' 법제화
윤리에서 규제로 전환
최종 결과물 중심 원칙 적용돼
한경 로앤비즈의 'Law Street' 칼럼은 기업과 개인에게 실용적인 법률 지식을 제공합니다. 전문 변호사들이 조세, 상속, 노동, 공정거래, M&A, 금융 등 다양한 분야의 법률 이슈를 다루며, 주요 판결 분석도 제공합니다.
사진=게티이미지뱅크
요즘 인공지능이 생성한 콘텐츠가 나날이 발전하여 현실과 구분하기 어려운 수준이 되었다. 실제 인물이 하지 않은 말을 하는 영상이나, 존재하지 않는 사건을 사실처럼 설명하는 글, 특정 인물의 목소리를 그대로 모방한 음성까지 등장하면서, 이용자는 그것이 실제인지 인공지능이 만들어낸 것인지 구별하기 어렵게 됐다.

더구나 온라인을 통해 이러한 콘텐츠가 빠르게 확산되면서 개인적, 사회적, 경제적 여러 혼란이 발생하고 있다. 기술이 발전할수록 콘텐츠의 생성 속도와 완성도는 높아지고 있지만, 그만큼 정보의 신뢰에 대한 불안도 커지고 있는 것이다. 이러한 상황에서 인공지능으로 생성된 콘텐츠는 어디까지 밝혀야 하는 것일까.

사진=게티이미지뱅크

 인공지능 '표시 의무' 권고 넘어 법제로

전 세계 주요국은 인공지능이 생성한 콘텐츠(AIGC)를 이용자가 명확히 인지할 수 있도록 하는 '표시 의무'를 법제화하고 있고, 이는 윤리적 권고가 아닌 법적 규제로 변화하고 있다. 

우리나라에서도 이러한 흐름이 본격화되고 있다. 올해 초 시행된 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(이하 AI 기본법)은 생성형 인공지능을 활용한 결과물에 대해, 해당 결과물이 인공지능에 의해 생성되었음을 이용자가 인식할 수 있도록 표시할 것을 요구하고 있다. 

이를 준수하기 위해 작년 11월 발표된 「인공지능 투명성 확보 가이드라인」은 이 표시 의무에 대해 구체적으로 설명하는데, 이에 따르면, 먼저 구별해야 할 개념이 있다. 바로 '사전고지'와 '표시'다.

사전고지는 해당 서비스가 인공지능 기반으로 운영된다는 사실을 이용자에게 미리 알리는 것이고, 표시는 실제로 생성된 결과물이 인공지능에 의해 만들어졌다는 점을 알리는 것이다. 예를 들어 생성형 AI 상담 서비스의 경우, 서비스 가입 단계에서 "AI 기반 서비스"임을 안내하는 것은 사전고지에 해당하고, 실제 상담이 시작되면서 "이 대화는 AI에 의해 생성됩니다"라는 안내가 제공되는 것은 표시에 해당한다.

또한 표시 의무는 모든 과정이 아니라 최종 결과물 기준으로 이루어진다. 이용자가 입력을 하거나 중간 선택을 하는 단계에서는 표시가 필요 없고, 실제 결과물이 제공되는 시점에서 표시가 이루어지면 된다. 

 '딥페이크' 생성물에 더욱 엄격한 법 적용

사진=게티이미지뱅크


실제와 구분하기 어려운 콘텐츠, 즉 딥페이크와 같은 경우에는 보다 엄격한 기준이 적용된다. 사람의 얼굴이나 목소리를 실제와 혼동할 수준으로 모방한 콘텐츠의 경우, 이용자가 이를 명확히 인식할 수 있도록 고지하거나 표시해야 한다.

해외의 규제 흐름도 유사하다. 유럽연합(EU)은 AI Act를 통해 인공지능이 생성한 콘텐츠에 대해 기술적으로 탐지 가능한 표시를 요구하고 있으며, 미국은 포괄적인 법안은 아직 없으나 연방거래위원회를 중심으로 인공지능 사용 여부를 속이거나 성능을 과장하는 행위를 기만적 광고로 보고 제재하고 있다.

중국의 경우에는 표시 방식과 위치, 크기까지 구체적으로 규정하는 등 보다 강한 형태의 규제를 도입하는 것으로 보인다. 중국은 작년경 상세한 기준을 시행하여 인공지능 표시 이미지 길이와 배치, 오디오의 속도, 메타데이터의 포함사항 등을 규제하고 있다. 

이처럼 국가별 방식에는 차이가 있으나, 공통적으로는 인공지능 콘텐츠에 대한 '투명성 확보'를 핵심 목표로 하고 있다는 점에서 방향성은 일치한다.

다만 모든 인공지능 콘텐츠에 동일한 수준의 표시 의무가 요구되는 것은 아니다. 실제와 혼동될 가능성이 높은 딥페이크 콘텐츠나 뉴스, 광고 등은 보다 강한 표시가 요구되는 반면, 예술적·창작적 목적의 콘텐츠에 대해서는 표현의 자유를 고려하여 완화된 방식이 허용될 수 있다.

결국 표시 의무의 강도는 '이용자의 오인 가능성'을 기준으로 판단될 수밖에 없는 것으로 보인다.

 의무 위반 시 '손해배상' 책임도

사진=게티이미지뱅크


표시 의무를 위반할 경우의 리스크도 점차 커지고 있다. 단순한 행정 제재를 넘어, 인공지능이 생성한 허위 정보로 인해 손해가 발생한 경우 민사상 손해배상 책임으로 이어질 가능성도 있다. 실제로 해외에서는 인공지능이 생성한 허위 정보로 인해 기업의 계약이 취소되거나 소송이 제기된 사례도 등장하고 있다.

이 과정에서 해당 콘텐츠가 인공지능에 의해 생성되었다는 점이 명확히 고지되었는지 여부는 책임 판단에서 중요한 요소로 작용할 수 있다.

인공지능 기술은 이미 우리 모두의 일상 속에 깊이 들어와 있다. 앞으로는 인공지능을 사용했는지 여부 자체보다, 그 사실을 어떻게 투명하게 드러내고 이용자의 신뢰를 확보할 것인지가 더 중요한 문제로 자리 잡게 될 것이다.

기술의 발전과 함께, 그 이면에 있는 '표시와 책임'에 대한 기준 역시 함께 정립될 필요가 있다. 

Copyright © 한국경제. 무단전재 및 재배포 금지.