다시 시작된 ‘AI 기본법’ 논의···‘고위험’ ‘처벌’ 어떻게 담을까

배문규 기자 2024. 7. 7. 15:50
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

최근 생성형 인공지능(AI)의 위험성을 경고하는 목소리들이 잇따라 제기되고 있다. 로이터연합뉴스

지난 21대 국회의 문턱을 넘지 못한 ‘인공지능(AI) 기본법’ 논의가 22대 국회 개원에 맞춰 다시 시작됐다. AI 산업 진흥과 안전성 사이에서 균형을 찾기 위한 줄다리기가 본격화되고 있다.

7일 국회의안정보시스템을 보면 AI 관련 법안이 개원 한 달여 만에 여야에서 6건이나 발의됐다. 초당적 의원 연구단체인 국회 AI포럼이 지난달 창립됐다. 정부도 대통령 직속 국가인공지능위원회 출범을 준비하고 있다. 국민의힘 의원 108명 전원이 공동발의한 AI 법안에 대해 14개 시민단체가 인공지능 위험을 방치한다고 입장문을 내는 등 시민사회도 목소리를 내고 있다.

글로벌 차원에서 AI 규제 논의의 물꼬를 튼 것은 유럽연합(EU)에서 초안 발의 3년 만인 지난 5월 최종 승인된 EU의 ‘AI 법’이다. 미국에선 지난해 ‘안전하고 신뢰할 수 있는 AI에 대한 행정명령’이 발표됐다. 국내에서도 챗GPT 등장 이후 사회적 관심이 커지면서 지난해 2월 국회 과학기술정보방송통신위원회에서 여러 법안을 합친 위원회 안이 법안 소위를 통과했으나 시민단체가 내용 편향성과 논의 과정 불투명성을 비판하면서 입법이 좌초됐다.

21대 국회에서 논의된 AI 기본법 명칭은 ‘인공지능산업 육성 및 신뢰 기반 조성에 관한 법률안’이다. AI에 대한 기본 정의부터 시작해 산업 발전 지원과 위험 대응 방안 등이 담겼다. 22대 국회 들어서 발의된 법안들도 대체로 AI 산업 진흥에 무게를 뒀다. 시민사회에선 AI 안전성 문제를 소홀히 다룬다며 우려를 표명하고 있다.

AI 기본법을 둘러싼 핵심 쟁점은 크게 ‘고위험 AI’와 ‘처벌’ 관련 내용이다. 시민사회는 AI 산업 육성을 원칙적으로 반대하는 것은 아니지만 AI 기본법이라는 명칭에 걸맞게 위험에 대한 부분도 균형있게 담겨야 한다고 주장한다. 산업계 역시 최근 글로벌 트렌드가 ‘안전한 AI’이기 때문에 기업들이 사업을 영위하려면 AI 위험성을 고려하지 않을 수 없다는 입장이다.

다만 어떤 내용을 담을지를 두고는 시민사회와 산업계의 입장이 엇갈린다. 오병일 진보네트워크센터 대표는 “사람의 생명, 신체 안전, 인권 등에 영향을 미치는 고위험 AI가 무엇이고 처벌을 어떻게 할지를 담을지가 (AI 기본법의) 핵심”이라고 말했다. 현재 발의된 법안들은 고위험 AI 사례들이나 의무에 대한 내용을 세세하게 명시하지 않았는데 이를 구체화할 필요가 있다는 것이다. 수사, 재판, 선거, 복지 등 공공영역을 비롯해 고용, 학교 교육, 생체·감정 인식 등과 관련된 조항들이 구체적으로 포함돼야 할 내용으로 꼽힌다. 오 대표는 “자동차 산업이 발달하면서 도로교통 안전 규제를 정비했듯이, AI 기술의 위험이 등장한 상황에서 안전 요구는 당연한 것”이라며 “규제 자체를 부담스러워하기보다는 그 수준에 대한 논의를 해야 한다”고 말했다.

반면 산업계에선 AI 기술이 빠르게 발전하는 상황에서 위험성의 구체적인 사례들을 명시하는 것은 현실적이지 않다는 입장이다. 안홍준 한국소프트웨어산업협회 혁신성장본부장은 “현재 모든 서비스나 제품에 AI가 적용되고 있어 계속 새로운 사례가 나올 수밖에 없다”며 “(사례를 법에 적시하기보다) 정부·기관 등에 고위험 AI 제품·서비스에 대한 사전 판단을 받는 식으로 안전장치를 마련할 수 있다”고 말했다.

시민단체는 또한 고위험 AI로부터 파생될 수 있는 문제에 대해 과징금 부과 등 처벌 규정이 법에 담겨야 실질적 견제가 가능하다고 주장한다. AI 위험으로부터 영향을 받는 사람이나 피해를 본 사람을 구제하기 위한 규정 마련도 강조하고 있다. 반면 산업계는 새로운 기술을 발전시키는데 부담이 될 수밖에 없기 때문에 처벌을 구체적으로 담는 것 역시 신중해야 한다고 맞서고 있다.

산업계는 AI 기본법에 국내 산업 보호를 위한 내용을 넣어야 한다고 강조한다. 생성형 AI 경쟁력이 미국, 중국에 이어 한국이 세 번째라는 얘기가 나오는 상황에서 잠재력 있는 산업에 적극적 지원이 필요하다는 논리다. EU가 빅테크에 강한 규제를 하는 이유는 기술기업이 없기 때문이라는 지적도 나온다. 안홍준 본부장은 “한국 주요 산업에는 정책적 지원을 위한 진흥법들이 존재하는데, AI 산업은 기업들만의 노력으로는 한계에 부딪힌 상황”이라며 “선언적으로 (AI산업) ‘진흥’법의 성격을 보여줬으면 한다”고 말했다.

AI윤리 연구자인 김명주 서울여대 정보보호학부 교수는 “EU에서도 금지한 고위험 AI 위험성에 대해 공감하지만 현재 모든 위험이 드러나지 않은 상황에서 구체적으로 (법률에) 명시하는 건 한계가 있을 수 있다”고 말했다. 김 교수는 “(AI 기본법에 대해) 소수의 전문가들만 논의하는 것이 아니라 국민의 이해를 높여야 한다”며 “공론을 통해 균형점을 찾아가는 것이 필요하다”고 말했다.

배문규 기자 sobbell@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?