“AI에 안전 브레이크” “국제기구 필요”…잇달아 규제 방안 내놓는 기업들 속내는

이재덕 기자 2023. 5. 26. 20:59
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

미국·EU 논의 중 규제안에 선제적 기준선…주도권 잃지 않으려는 의도

인공지능(AI)을 멈추게 할 수 있는 ‘브레이크’ 장착, AI 개발을 감시하는 국제기구 창설, 위험한 AI를 개발하는 국가에 무역 제재…. 마이크로소프트(MS)·구글·오픈AI 등 생성형 AI를 개발한 주요 기업들이 최근 이 같은 내용의 AI 규제 방안을 잇따라 내놓고 있다. 미국과 유럽연합(EU) 등 각국 정부가 규제 법안을 마련하려는 움직임을 보이자 선제적으로 기준선을 제시해 주도권을 잃지 않겠다는 의도로 보인다.

MS는 25일(현지시간) 공식 블로그를 통해 전기·수도·교통 등 중요 인프라 시설에 사용되는 AI 시스템에 ‘안전 브레이크(safety brakes)’를 의무적으로 장착할 것을 제안했다. 중요 인프라 시설에 사용되는 AI는 유사시 완전히 끄거나 감속할 수 있도록 비상 장치를 달아야 한다는 뜻이다. MS는 “(안전 브레이크 등이 제대로 작동해) 라이선스를 부여받은 데이터센터에만 중요 AI 시스템을 배치해야 한다”고도 했다. MS는 서울·부산 등 전 세계 여러 도시에 데이터센터 리전 60여곳을 보유하고 있다.

구글은 지난 10일 발표한 ‘책임있는 AI 발전을 위한 정책 의제’라는 글에서 “글로벌 보안을 위협하는 AI 연구·개발을 지원하는 특정 주체에 대한 무역 통제 정책을 모색해야 한다”고 주장했다. AI 선도기업들로 ‘AI 글로벌 포럼’을 구성해 AI 오용 위험을 줄여나가야 한다고도 했다.

챗GPT 개발사인 오픈AI 역시 AI의 무분별한 개발을 막기 위해서는 국제원자력기구(IAEA)와 같은 국제기구가 필요하다고 제안했다.

이는 최근 미국과 EU 등이 생성형 AI에 대한 규제 방안을 논의 중인 상황과 무관치 않다. 김명주 서울여대 정보보호학과 교수는 “AI에 대한 규제를 법제화하려는 움직임 속에서 구글, 오픈AI, MS 등이 규제안을 좀 더 자신들에게 유리한 방향으로 가져가려는 시도”라며 “지금은 이들 기업이 (환각 문제 등) 자신들의 생성형 AI가 가진 문제를 보완하고 (법이 아닌) AI 윤리에 대해 고민하는 게 더 필요한 상황”이라고 말했다.

오픈AI의 샘 올트먼 최고경영자(CEO)는 전날 영국 런던에서 기자들과 만나 “EU의 AI 규제법이 아주 많이 걱정된다”고 말했다. EU는 AI 서비스를 위험도에 따라 4단계로 구분하고, 챗GPT 같은 고위험 AI 시스템에 대해서는 더 많은 의무를 부과하는 내용의 AI 규제법을 추진하고 있다. 올트먼 CEO는 “관련 규정을 준수하기 위해 노력하겠지만 준수할 수 없다면 서비스 운영을 중단하겠다”고 말했다.

EU 측은 오픈AI가 자사에 불리한 입법을 막기 위해 협박하고 있다며 강도 높게 비판했다. 티에리 브레튼(브르통) EU 내부시장 담당 집행위원은 “(올트먼 CEO는) EU가 생성형 AI 출시를 지연시킨다며 협박 중이지만 소용없는 일”이라고 말했다.

이재덕 기자 duk@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?