[AI 서울 정상회의] 유럽, 최초 AI 규제법 내놓을 때 韓 `기본법` 국회 못넘고 폐기 수순

김나인 2024. 5. 22. 16:23
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

"규제-진흥 균형 필요"
이종호 과학기술정보통신부 장관과 미셀 더넬런 영국 과학혁신기술부 장관이 22일 오후 서울 성북구 한국과학기술연구원(KIST)에서 열린 'AI 서울 정상회의 장관 세션' 에서 환영사를 하고 있다. 과기정통부 제공

유럽연합(EU)이 세계 최초로 인공지능(AI)을 포괄적으로 규제하는 법안을 시행하는 가운데 우리나라는 'AI 기본법'이 국회 상임위원회조차 통과하지 못하고 폐기 수순이 예고돼 있다. 정부는 '디지털 권리장전'을 바탕으로 AI가 촉발한 대전환에 선제 대응한다는 방침이지만, AI 제도 공백으로 리더십 경쟁에서 뒤처지지 않는 것이 아니냐는 우려다.

유럽연합(EU)은 22일 두 달 전 유럽의회를 통과한 AI 규제법을 최종 승인했다. 이 법은 내달부터 발효될 예정이다. 세계 최초의 AI 규제 관련 법안으로, 고위험 분야에 AI 기술 사용을 규제하는 데 목적이 있다. AI 위험도를 크게 네 단계로 나눠 차등 규제하는 내용이 골자다. 가장 높은 고위험 등급은 의료, 교육 등 공공 서비스나 선거, 핵심 인프라, 자율주행 등에 사용되는 AI 기술이다. 반드시 사람이 감독하고 위험관리 시스템을 구축해야 한다. '사회적 신용 점수'와 같은 시스템도 종교, 세계관, 성적 취향, 인종에 기반한 생체 인식 분류 시스템과 같이 전면 금지된다. AI로 생성된 콘텐츠도 이를 공개해야 한다.

◇AI 규범 치고 나가는 EU…AI기본법 최종 승인

이 법안은 관보 게재를 거쳐 내달 발효되면 6개월 뒤부터 금지 대상 AI 규정이 우선 시행된다. 인터넷이나 CCTV 영상에서 얼굴 이미지를 무작위로 수집해 AI에 활용하는 등의 활동은 금지되는 식이다. 일반인공지능(AGI)에 대한 의무는 12개월 후, 규제 대상 제품에 내장된 AI 시스템에 대한 규정은 36개월 후에 적용된다. 전면 시행은 오는 2026년부터다. 위반시 벌금은 유형에 따라 다른데, 3500만 유로(약 518억원)나 '전년도 전세계 매출액 7%' 중 높은 금액이다.

다만, CCTV의 실시간 얼굴 인식을 원칙적으로 금지하면서도 실종자나 납치 피해자를 찾는 등 범죄 사건과 관련한 법 집행에 사용되는 경우는 예외를 인정한다. 마티유 미셸 벨기에 디지털 장관은 "AI법 채택은 EU에 중요한 이정표"라며 "신뢰·투명성·책임을 강조하는 동시에 빠르게 변화하는 기술이 유럽의 혁신을 촉진할 수 있도록 보장할 것"이라고 말했다.

EU는 오픈AI가 '챗GPT'를 출시한 이후 AI법 개정에 속도를 내 왔다. AI법 집행을 위해 집행위 연결총국 산하에 'AI 사무소'도 신설한다. EU뿐 아니라 미국, 중국 등도 AI 규범 경쟁을 치열하게 펼치고 있다. 규범의 주도권을 잡는 것이 AI 패권을 확보하는 데 유리하다는 계산이 깔려 있다.

미국은 '안전하고 신뢰할 수 있는 AI에 대한 행정명령'을 통해 미국 기업들에 AI에 대한 안전 테스트 결과, 주요 정보를 정부와 공유하도록 했다. 중국은 지난해 'AI 윤리 거버넌스' 표준화 지침을 마련했다. 일본은 '히로시마 AI 프로세스'를 주도적으로 이끌며 국제 규범 마련에 나서고 있다.

◇AI 기본법 폐기 수순…"AI 샌드박스 등 혁신장치 둬야"

반면, 우리나라는 AI 정책 마련이 지지부진하며 속도를 못 내고 있다. 지난해 초 발의된 'AI 기본법'이 국회 상임위원회에 계류돼 있었는데, 여야가 합의점을 찾지 못한 채 이달 말 21대 국회 임기 종료와 함께 폐기되는 것으로 결론이 났다.

일단 AI 질서와 관련한 글로벌 주도권 확보에 실패한 것이다. 이 가운데 전문가들은 앞으로 논의를 통해 규제와 진흥이 모두 들어간 정밀한 법안을 마련해야 한다고 입을 모은다. 특히 'AI 샌드박스' 등 R&D 차원의 규제 혁신이 과감하게 이뤄져야 한다는 지적이다.

과학기술정보통신부는 올해 AI법 제정을 통해 AI 신뢰 확보와 산업 발전에 나선다는 계획이다. 총 9개 분야를 '고위험영역 AI'로 정의하고 안전성 확보조치 의무화, 생성형 AI 산출물 표시 의무화 등에 나선다는 방침이다. AI법 세부 지침으로는 12월까지 고위험 영역에 속하는 AI 사업자의 위험 관리에 대한 가이드라인을 마련하고, AI 서비스 분쟁조정 등 이용자 보호 조치를 담은 법률도 마련한다는 계획이다. 오는 2026년까지 EU의 'AI 책임 지침안'과 같이 AI 기술로 손해가 발생한 경우 손해배상체계 등 법률 개정도 검토한다. 이를 위해 여야의 적극적 협의가 필요하다는 지적이 나온다.

최경진 가천대 법학과 교수는 "AI 거버넌스가 전세계적으로 중요한 만큼 안전성 보호조치뿐 아니라 규제를 혁파할 수 있는 데이터 활용 등의 내용이 담긴 'AI 샌드박스'로 과감한 진흥이 이뤄져야 한다"며 "법안에 규제와 진흥이 모두 들어가도록 충분히 대화하는 논의과정이 필요한 시점"이라고 말했다.

김나인기자 silkni@dt.co.kr

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?