세계 최초 AI 기본법 시행 한 달 앞두고… 기대와 우려의 현주소
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[우먼센스] 2026년 1월 22일, 인공지능(AI)을 포괄적으로 규율하는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(약칭 AI 기본법)'이 시행된다. 현재 40일간의 입법예고 절차를 마무리하고, 본격적인 법 시행을 한 달여 앞둔 상태다.
AI 기본법은 AI 기술의 발전과 혁신을 장려하는 동시에, 급속한 확산 과정에서 발생할 수 있는 사회적 위험을 관리해 국민의 권익을 보호하기 위해 마련됐다. 정부는 규제 중심이 아닌, AI 산업 진흥과 사회적 안전성을 함께 고려한 제도적 기반을 구축하겠다는 방침이다.
무엇을 참고해 만들었나
EU 규제 모델을 참고한 한국형 AI 기본법
국내 AI 기본법은 유럽연합(EU)의 AI 규제 체계를 참고해 설계됐다. EU는 2024년 8월 세계 최초로 포괄적인 AI 규제 법안인 'AI 법(AI Act)'을 발효하며, AI를 위험 수준에 따라 분류·관리하는 체계를 도입한 바 있다.
다만 EU는 실제 법 시행 과정에서 구글·애플 등 글로벌 빅테크 기업들의 반발과 미국 정부의 문제 제기 등을 고려해, '고위험 AI' 분야에 대한 규제 적용 시점을 당초 내년 8월에서 2027년 12월로 연기하는 방안을 발표했다. 규제 선두에 섰던 EU가 시행 속도 조절에 나선 가운데, 한국이 비교적 이른 시점에 법 시행에 나서자 산업계에서는 충분한 대응 체계를 갖추기 전에 법부터 시행되는 것 아니냐는 우려가 제기되고 있다.
'고영향 AI'란 무엇인가
기준 모호성에 인권 보호 공백 지적

AI 기본법은 '고영향 AI'를 서비스하는 기업들에게 더 강한 의무를 부여하는 것을 골자로 한다. 과학기술정통신부가 공개한 'AI 기본법 하위법령집'에 따르면 보건·의료, 채용·인사 평가, 금융 신용 판단, 에너지·교통 등 핵심 인프라 운영, 수사·재판 지원 등이 고영향 AI 분야에 해당한다.
해당 영역에서는 AI의 판단 결과가 개인의 권리와 삶에 직접적인 영향을 미칠 수 있어, 오류나 편향이 발생할 경우 사회적 파급력이 크다. 이에 따라 법은 고영향 AI 서비스를 제공하는 기업에 대해 위험 요소를 사전에 관리할 수 있는 체계를 마련하고, 안전성과 설명 가능성을 높이도록 요구하고 있다.
그러나 업계에서는 자사 서비스가 고영향 AI에 해당하는지를 판단할 수 있는 기준이 아직 명확하지 않다고 지적한다. 특히 고영향 AI 분류 2단계 조건에 포함된 '중대한 영향'의 범위가 추상적이어서, 보다 구체적인 가이드라인이나 체크리스트가 필요하다는 입장이다.
시행령안의 '고영향 AI'와 관련해 인권 보호 측면의 공백을 지적하는 목소리도 나왔다. 최근 국가인권위원회는 공식 입장 표명을 통해 고영향 AI의 범위를 보다 구체화하고, 인권 보호 관점에서 시행령 보완이 필요하다고 권고했다. 인권위는 "구직자·환자·대출 신청자 등 고영향 AI로 인해 실질적 영향을 받는 당사자에 대한 보호 조치가 법적 공백 상태"라고 지적하며 "AI의 개발과 이용 전 과정에서 인간의 존엄성과 기본권을 실질적으로 보호할 수 있는 법·제도적 기반이 함께 마련돼야 한다"고 촉구했다.
과학기술정보통신부는 이러한 지적에 대해 'AI 기본법 시행령 시행 대비 설명회'를 열고 "고영향 AI에 대한 기준은 고정된 것이 아니라, 기술 발전이나 사회적 동향에 따라 추후 검토해야 할 사항"이라며 "법 조항을 엄격히 해석해 최소한의 규제만 할 방침"이라고 설명했다.
또 AI 기본법 시행과 관련해 최소 1년 이상의 규제 유예기간을 두고 운영하겠다는 방침을 거듭 강조하며 "이 기간 동안 사실조사는 인명 사고나 인권 훼손 등 사회적 문제를 야기하거나 국가적 피해를 초래한 경우에 한해 예외적으로 실시할 것"이라고 밝혔다. 고영향 AI 사업자 여부 확인 요청이 있을 경우 30일 이내 회신하겠다고도 덧붙였다.
AI가 만들면 꼭 밝혀야 하나
AI 생성 콘텐츠' 투명성 의무의 범위

AI 기본법 시행령안의 또 하나의 핵심은 사업자가 생성형 AI를 활용한 텍스트·이미지·영상 등 결과물을 제공할 경우, 해당 결과물이 AI에 의해 생성되었음을 명시해야 한다는 '투명성 확보 의무' 규정이다. 특히 실제 인물의 얼굴이나 음성을 합성한 '딥페이크' 영상에는 처음부터 끝까지 'AI 생성물'이라는 가시적 워터마크를 부착해야 하며, 이를 이행하지 않을 경우 최대 3천만 원의 과태료가 부과될 수 있다.
다만 이미지를 합성한 생성물이라도 불법 요소가 없고 문화적·창작적 가치가 높은 경우에는 '비가시적 워터마크'를 사용할 수 있다. 이 경우에도 이용자가 인식할 수 있도록 최소 1회 이상의 안내 문구나 음성을 통해 AI 생성물임을 고지해야 한다.
이 조항은 딥페이크 범죄와 허위 정보 확산, 인격권 침해 등 AI 기술 발전과 함께 현실화된 사회적 문제를 예방하기 위한 장치다. 뉴스나 정치적 메시지처럼 공적 판단에 영향을 줄 수 있는 정보일수록 투명성 확보가 필요하다는 판단에서 도입됐다. 다만 산업계에서는 이러한 의무가 다소 모호하고 부담스러운 규제로 받아들여지고 있다.
현실은 준비됐나
산업계 "실무 혼란 불가피… 업종 특수성 반영 필요"
패션·뷰티 등 커머스 및 광고 업계에서는 이미 제작 과정 전반에 AI가 깊숙이 활용되고 있는 상황에서, 모든 결과물에 일률적으로 'AI 생성' 표기를 해야 할 경우 실무 혼란이 불가피하다고 입을 모은다. 특히 일괄적인 'AI 생성 결과물' 고지가 영상의 몰입도를 해쳐 작품성을 떨어뜨리고, 브랜드의 경우 마케팅 효과까지 저해할 수 있다는 지적이 나온다.
영상 제작자 A 씨는 "제품의 신뢰도에 영향을 미치지 않는 일부 소품이나 배경 생성 등에 주로 AI를 활용하고 있다"며 "이런 경우까지 모두 AI 생성물로 표기해야 한다면 실제 촬영본에 대해서도 소비자가 '가짜'라고 오해할 수 있다"고 말했다. 이어 "AI를 활용해 업무 효율성을 높여왔는데, 이를 모두 직접 촬영해야 한다면 생산성과 제작비 측면에서 부담이 커질 수밖에 없다"고 우려했다.
게임 산업과 K-콘텐츠 업계에서도 AI 기본법 시행이 산업 경쟁력을 저하시킬 수 있다는 우려가 제기된다. 콘텐츠 업계 관계자는 "AI 기술 활용에 대한 제한이 강화되면 창작자들이 위축될 가능성이 있다"며 "업종별 특수성을 고려해 비가시적 워터마크를 기본으로 하되, 예외 적용 범위를 보다 유연하게 확대할 필요가 있다"고 말했다.
나라마다 규제는 어떻게 다른가
EU는 규제, 미국은 자율… 한국은 중간 지점

AI 규제 방식은 국가별로 차이를 보인다. EU는 인간의 기본권 보호에 방점을 두고 AI를 위험군에 따라 엄격하게 관리하는 체계를 구축했다. 위험 수준을 4단계로 나눠 규제 강도를 차등화했고, '허용 불가능한 위험'을 가진 AI에 대해서는 전면 금지 조치를 시행하고 있다. AI 법 위반 시에는 최대 3500만 유로(약 600억 원) 또는 연 매출의 7% 중 높은 금액이 벌금으로 부과된다.
미국은 AI 기술 혁신과 산업 경쟁력을 우선시하는 자율 규제 기조를 유지하고 있다. 특히 2025년 트럼프 행정부 출범 이후 바이든 정부의 AI 안전 중심 행정명령을 폐기하고, 규제 완화와 산업 육성에 초점을 맞춘 'AI 행동계획'을 발표하면서 이러한 기조가 더욱 강화됐다.
최근 도널드 트럼프 미국 대통령은 "AI 분야를 우리가 선도하려면 단 하나의 규정집만 있어야 한다"며 주별 AI 규제를 연방 차원에서 일원화하는 행정명령에 서명했다. 기업들의 규제 부담을 완화해 AI 분야에서 미국의 경쟁 우위를 지키겠다는 의지를 분명히 한 것이다.
한국의 AI 기본법은 이 두 흐름 사이에서 산업 육성과 사회적 안전성을 동시에 고려한 절충적 모델로 평가된다. EU보다 자율성이 높고 과태료 수준이 낮으며, 미국보다는 포괄적인 규제 형태를 띤다. 과도한 규제로 기술 발전을 제약하지 않되, 최소한의 공통 기준은 마련하겠다는 접근이다.
실제로 과기정통부는 "AI 기본법은 규제를 위한 법이 아니라 AI 생태계를 조성하기 위한 기본법"이라며 "규제는 최소화하고 다른 나라와 비교해도 과도하거나 강한 규제는 하지 않겠다는 것이 정부의 원칙"이라고 밝힌 바 있다.
시행 이후 무엇이 달라질까
소통과 보완이 남은 과제
AI 기본법의 의미는 AI 기술의 폭발적 확산 속에서, 우리 사회에 필요한 최소한의 공통 기준을 제시했다는 데 있다. 누구나 쉽게 활용할 수 있는 기술이 된 만큼 책임 있는 사용과 사회적 합의가 요구되며, 이 법은 그 기준을 제도화하기 위한 첫 출발점으로 볼 수 있다.
다만 법의 실효성은 제도 운영 역량에 따라 현장에서 판가름 날 전망이다. 정부가 '최소 규제' 원칙을 강조하고 있지만, 고영향 AI 판단 기준의 모호성이나 업종별 특수성을 충분히 반영하지 못한 일률적 투명성 의무에 대해서는 산업계의 우려가 여전히 이어지고 있다. 전문가들은 원칙 중심으로 구성된 조항들이 현장에서 혼란을 낳지 않도록, 보다 구체적인 하위 가이드라인과 예외 규정이 신속히 마련돼야 한다고 지적한다.
법 시행 이후 최소 1년간의 계도기간이 주어지는 만큼, 이 시간을 단순한 유예가 아닌 제도 보완의 기회로 삼아야 한다는 목소리도 높다. AI 산업이 국가 경쟁력의 핵심으로 부상한 지금, 정부와 산업계, 이용자 간의 지속적인 소통이 법의 연착륙을 좌우할 것이다.
정효림 기자 jhlim@seoulmedia.co.kr
Copyright © 우먼센스. 무단전재 및 재배포 금지.