강도현 차관 "AI, 기본법 제정이 우선…규제 독립기관 출범은 나중 일"

배한님 기자 2024. 9. 24. 17:56
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

강도현 과학기술정보통신부 2차관은 24일 "현 단계에서 (AI 규제를 위한) 독립적인 행정기구가 필요한 것이냐는 문제는 조금 더 생각해봐야 한다"고 강조했다.

강 차관은 "정부가 개인정보보호에 관한 업무를 시작할 때 독립 (규제)행정기관이 될 것이라는 생각을 안 했으나, 시대적 요구에 따라 개인정보보호위원회(개보위)가 됐다"며 "AI를 위한 별도의 합의제 행정기구를 만들지 어떤 방식으로 갈지는 열려있는 부분 같다"고 말했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

국회 과방위 AI 기본법 공청회
강도현 과학기술정보통신부 2차관이 24일 오후 국회 과학기술정보방송통신위원회에서 열린 인공지능(AI)과 디지털 포용 관련 법률안 공청회에서 발언하고 있다./사진=뉴스1


강도현 과학기술정보통신부 2차관은 24일 "현 단계에서 (AI 규제를 위한) 독립적인 행정기구가 필요한 것이냐는 문제는 조금 더 생각해봐야 한다"고 강조했다. AI(인공지능)기본법도 제정되지 않은 상태에서 규제 위원회 등 행정기관을 둘지에 대해서는 아직 검토할 단계가 아니라는 뜻이다.

강 차관은 이날 서울 영등포구 여의도 국회 과학기술정보방송통신위원회(과방위)에서 열린 AI 기본법에 대한 공청회에 참석해 출범을 준비 중인 '대통령직속국가AI위원회'를 독립된 중앙행정기관으로 전환해야 한다는 주장이 시기상조라는 견해를 내놓았다.

강 차관은 "정부가 개인정보보호에 관한 업무를 시작할 때 독립 (규제)행정기관이 될 것이라는 생각을 안 했으나, 시대적 요구에 따라 개인정보보호위원회(개보위)가 됐다"며 "AI를 위한 별도의 합의제 행정기구를 만들지 어떤 방식으로 갈지는 열려있는 부분 같다"고 말했다.

급변하는 AI 산업 환경 속에서 AI위원회도 방송통신위원회나 개인정보보호위원회처럼 독립기구로 발전할 수도, 4차산업혁명위원회가 디지털플랫폼정부위원회로 전환한 것처럼 변모해나갈 수도 있다는 의미다.

이에 조인철 더불어민주당 의원도 "(AI 정책과 관련) 뚜렷하게 업무 영역이 정해지지도 않았는데 당장 지금 (AI 관련) 중앙행정기관을 만들겠다는 것은 과잉이 아닌가 싶다"며 "이런 부분은 신중하게 생각할 필요가 있다"고 거들었다. 조 의원은 "AI 전문가도 없어서 난리인데 사람이나 구할 수 있는지 걱정이다"고 덧붙였다.

이해민 조국혁신당 의원도 "궁극적으로는 방통위나 개보위처럼 독립적인 합의제 기구가 전문가 중심으로 이뤄져야 한다고 강하게 주장한다"면서도 "그러나 AI 패권 전쟁에서 쫓아가는 상황에서 독립기구 구성은 AI위원회의 향후 목적 중 하나로 기술하는 것이 어떨까 한다"고 제안했다.

고경환 법무법인 광장 변호사도 "빠르게 발전하는 AI 기술을 현장에 적용하고 기존 서비스나 제품에 반영해서 글로벌 경쟁력을 확보해야 하는 상황에서 강한 규제 프레임으로는 경쟁에 대비하기 어려울 뿐 아니라 기술에 따른 위험을 적시에 적절하게 담아내는 것 역시 어렵다"며 "유연한 규제 프레임에 기초해 국제경쟁력 확보와 기술 발전에 따른 위험 대응을 추구하는 것이 바람직하다고 생각한다"고 주장했다.

AI 부작용이 드러난 딥페이크 등 불법적 AI 생성물에 대한 규제가 필요하다는 주장도 나왔다.

유승익 한동대 교수는 "딥페이크 성착취물과 관련해 형법이나 형사법에서 규율해야 하는 것 아니냐는 문제의식이 있지만, 국민들의 형사법적 요구에 AI기본법도 반응해야 된다고 생각한다"며 "투명성 확보 조항이나 기타 조항을 통해 AI 제공자 또는 운영자에 대한 규제가 반드시 필요하다"고 했다.

이에 업계는 AI 기본법은 일반론을 담고, 부작용 등은 개별법으로 확장하는 것이 좋겠다는 입장을 내놓았다.

배경훈 LG AI연구원장은 지난 2월 열린 UN안보회의에서 체결된 20여개 글로벌 기업의 딥페이크 악용 방지를 위한 협약을 예로 들었다. 배 원장은 "이 협약은 생성형 AI 결과물에 출처를 표시하고 딥페이크 콘텐츠를 탐지하며 일반 대중의 AI 리터러시를 증진시켜 사회적 회복 탄력성을 증진하는 것을 핵심으로 한다"며 "이러한 접근 방식은 AI 기술 자체를 제한하기보다 오남용을 방지하는데 초점을 맞춘 좋은 사례"라고 말했다.

배한님 기자 bhn25@mt.co.kr

Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?