인공지능법 다시 논의하라 [시론]

한겨레 2024. 5. 20. 15:50
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

이미 유럽을 비롯한 주요 국가들은 인공지능의 위험을 효과적으로 규제하고, 그를 위한 독립적인 감독체제를 구축하고 있다. 인공지능 앞에서 취약해질 수밖에 없는 개인의 안전과 인권을 보호하고 그들의 권리를 구제할 수 있는 다양한 준칙이나 입법을 서두르고 있다. 하지만 저 인공지능법안은 이런 추세를 정면으로 부정해버린다.
진보네트워크센터, 정보인권연구소, 참여연대, 민주사회를 위한 변호사모임 등은 지난해 3월9일 오전 서울 여의도 국회의사당 앞에서 기자회견을 열어, 지난해 2월 국회 과학기술정보방송통신위원회 법안심사소위원회를 통과한 ‘인공지능법’에 대해 전면 재검토를 촉구했다. 민주사회를 위한 변호사모임 제공

한상희 | 참여연대 공동대표·건국대 법전원 교수

국회는 최근 아무도 모르게, 은밀하고도 비밀스럽게 법안 하나를 처리하고 있다. 지난해 2월 국회 과학기술정보방송통신위원회(과방위) 법안소위는 인공지능법안을 통과시켰다. 그런데 지금까지 국민은 물론 동료 의원들에게도 그 내용이 알려져 있지 않다. 무엇이 문제일까?

알프레드 노벨은 자신이 발명한 다이너마이트가 살인무기로 악용되는 현실을 개탄했다. 인공지능 또한 마찬가지의 운명이 예정돼 있다. 과학기술정보통신부 2차관의 말처럼 그것은 “사회 전체의 큰 변화를 가져올 수 있는 그런 추동력을 갖고 있는” 존재이다. 문제는 이 “큰 변화”가 어떤 모습일지 아무도 모른다는 점이다. 그것은 4년 전의 챗봇 이루다 사건처럼 소수자 혐오를 추동하는 존재일 수도 있고, 얼굴 인식이나 걸음걸이 인식 기술 등에 활용돼 전방위적인 감시체제를 추동하는 존재가 될 수도 있다. 실제 질병 진단용 인공지능이 똑같은 증상을 두고 남성에게는 심장질환을 경고했고 여성에게는 정신과 치료를 권고하는 등 기존의 젠더편향성을 반복했다는 보고도 있었다. 심지어 딥페이크 기술은 각종 범죄의 수단이 될 뿐 아니라 가짜뉴스와 허위정보를 양산해 미국 대통령 선거의 주요 변수가 될 것이라는 예측까지 나온다.

그래서 인공지능의 현주소는 희망적인 미래사회로의 발전이 아니라 누구도 그것이 어떤 모습의 “지능”이 되어 어느 누구에게 어떠한 영향력을 행사하게 될지 알 수 없는, 불확실성의 위험이 된다. 유발 하라리의 말처럼, 인공지능의 “혁명은 우리가 알던 방식의 인류 역사는 끝났다는 신호를 보내고” 있는 것이다.

인공지능법은 이 점에 초점을 맞춘다. 이 암울한 경고를 국가와 사회 차원에서 대비하고 규율할 수 있는 체제를 추구하고자 하는 것이다. 이미 유럽을 비롯한 주요 국가들은 인공지능의 위험을 효과적으로 규제하고, 그를 위한 독립적인 감독체제를 구축하고 있다. 인공지능 앞에서 취약해질 수밖에 없는 개인의 안전과 인권을 보호하고 그들의 권리를 구제할 수 있는 다양한 준칙이나 입법을 서두르고 있다.

하지만 저 인공지능법안은 이런 추세를 정면으로 부정해버린다. “우선 허용, 사후 규제”의 원칙은 대표적 사례다. 집을 지을 때도 각종 규제기준에 따른 건축허가를 먼저 받아야 한다. 그런데 법안은, 인공지능의 경우 마음대로 만들어 운용할 수 있게 한다. 단지 그것이 국민의 생명이나 안전에 위해가 되거나 공공의 안전보장이나 질서유지를 ‘현저히’ 저해할 우려가 있는 아주 예외적인 경우에만 사후 약방문 격의 규제를 할 수 있게 했다. 산업발전이라는 명분으로 국가의 위험관리 권한을 최소한의 수준으로 축소시켜놓은 것이다. 문제는 여기에 그치지 않는다. 이런 입법안에 시민사회가 강력히 반발하자 과기부는 아예 이 조항 자체를 삭제하겠다고 한다. “사후 규제”라는 국가 규제의 가능성조차도 포기해버리겠다는 것이다.

인공지능의 위험에 대처하는 방식도 수박 겉핥기 식이다. 유럽에서는 그 위험을 4단계로 나누어 인공지능 자체가 아예 금지되는 경우에서부터 최소한의 규제만 가해지는 경우까지 다양하게 규정한다. 하지만 저 인공지능법안은 고위험 영역 하나만 겨우 정해놓고 나머지는 기업들의 이윤 논리에 일임해버린다. 그래서 유럽에서 금지된 인공지능을 우리나라에서 자유롭게 만들어 운용할 수 있게 했다. 또 고위험 영역이 아니더라도 인공지능의 위험 정도에 따라 개별적인 규제가 필요하다는 점도 간과하고 있다.

법안에 벌칙조항 등 실효적인 규제 수단이 없다는 점 역시 우려스럽다. 인공지능이 어떤 피해를 야기하든 그 책임을 물어 형사처벌을 하는 규정이 없다. 인공지능 윤리를 확립하고 그에 따른 규율조차 자율규제라는 명분으로 기업들에 일임한다. 그 밖에도 이 법안은 도처에 입법위임 규정을 두어 예의 ‘시행령 통치’를 양산하는 한편, 현재 시행 중인 지능정보화기본법과의 관계도 제대로 정비하지 못하고 있기도 하다.

이런 지경에 이르면 이 법안이 아직도 비공개인 이유를 알 수 있을 듯도 하다. 물론 인공지능에 관한 법률은 시급히 제정돼야 한다. 다만 그 법률은 인공지능산업의 육성 못지않게 국민들의 권익 보호와 사회질서 및 공공복리의 증진에 주력해야 한다. 하지만 저 인공지능법안은 전자를 위해 후자를 막무가내로 외면한다. 이 법안의 입법 절차가 당장 중단돼야 하는 까닭은 바로 여기에 있다. 우리가 아는 방식의 인류 역사를 이어가려면, 노벨의 후회에서 교훈을 얻으려 한다면, 국회는 더는 과기부의 독촉에 떠밀려 가서는 안 된다. 정작 우리에게 필요한 것은 인공지능법의 제정을 위한 범사회적 숙의의 장이다.

Copyright © 한겨레. All rights reserved. 무단 전재, 재배포 및 크롤링 금지.

이 기사에 대해 어떻게 생각하시나요?