MS “정부 차원 AI 규제 필요”... 안전장치 의무화 제안도

민서연 기자 2023. 5. 26. 10:41
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능(AI) 기술이 급속히 발전하면서 규제 목소리가 커지는 가운데 마이크로소프트(MS)가 AI 규제를 위한 정부 기구가 필요하다고 밝혔다.

25일(현지 시각) 블룸버그 통신과 연합뉴스 등에 따르면 MS 최고법무책임자인 브래드 스미스 부회장은 이날 자신의 블로그에 “AI 개발을 감시할 연방정부 차원의 기구를 설치하는 것이 가장 합리적”이라고 밝혔다. 그는 “우리는 항상 AI가 인간의 통제하에 있도록 해야 한다”며 “이것은 기술 중심 기업과 정부 모두에게 최우선 순위가 돼야 한다”고 강조했다.

중국 베이징의 마이크로소프트 빌딩. /연합뉴스

이어 “AI를 이용해 사람들을 속이려는 의도로 합법적인 콘텐츠가 변경되는 것을 막기 위한 조치가 필요하다”고 설명했다. 그는 또 “물리적 보안, 사이버 보안, 국가 보안 등 보호해야 할 가장 중요한 형태의 AI에 대해서는 라이선스가 필요하다”고 강조했다.

스미스 부회장의 기구 설치 언급은 앞서 생성형 AI ‘챗GPT’ 개발사 오픈AI의 샘 올트먼 최고경영자(CEO)의 주장을 뒷받침한다. 올트먼은 지난 16일 미 의회 청문회에 출석해 AI의 위험을 완화하기 위해 정부 규제 개입을 강조한 바 있다. 오픈AI도 국제원자력기구(IAEA)와 같은 AI 규제 국제기구가 필요하다고 주장했다.

MS는 이날 또 블로그를 통해 AI 규제에 필요한 5가지 원칙을 제시했다. MS는 우선 중요 인프라에 사용되는 특정 AI 시스템에 ‘안전 브레이크’를 의무적으로 장착할 것을 제안했다.

이는 열차 비상 브레이크와 유사한 것으로, 유사시에 대비해 중요 인프라 시설에 사용되는 AI를 완전히 끄거나 감속할 수 있도록 해야 한다는 것이다. MS는 “일각에서는 AI가 더욱 강력해짐에 따라 이를 잘 제어할 수 있는지 우려하고 있다”며 “전기, 수도, 교통과 같은 중요 인프라의 AI 제어 관련 필요성이 제기된다”고 설명했다.

이어 이런 브레이크 장치는 오랫동안 엘리베이터나 스쿨버스, 고속열차와 같은 다른 기술에도 내장돼 왔다고 덧붙였다. MS는 또 정부 주도의 AI 기술 사용에 대한 ‘가드레일’ 구축을 제안하며, 상무부 산하 미국표준기술연구소(NIST) 등이 이를 마련할 수 있다고 설명했다.

아울러 AI 앱이나 고급 기초 모델, AI 인프라에 대한 법적인 틀 구축, 학술적·비영리적 AI 연구에 대한 자금 지원도 강조했다.

AI가 사회에 미칠 영향을 해결하기 위해 민관 협력 관계 구축도 제안했다. MS는 발전된 AI 시스템을 만들거나 사용하는 모든 조직은 AI 관련 자체 거버넌스 시스템을 개발하고 구현해야 한다며 MS는 지난 6년간 이를 구축했다고 설명했다.

MS는 오픈AI에 100억 달러(약 13조3000억원) 이상을 투자하며 전 세계 AI 기술 경쟁에 불을 지폈다. 검색 엔진 빙과 문서 도구 등 모든 자사 제품에 AI 챗봇을 탑재하며 오픈AI와 함께 이 경쟁에서 가장 앞서 있다는 평가를 받고 있다.

챗GPT 일러스트. /연합뉴스

EU가 가장 먼저 나서기는 했지만, 미국과 AI 산업 내에서도 규제의 필요성을 역설하는 흐름이 강해지고 있다. 미국의 조 바이든 행정부는 지난달 대화형 인공지능(AI) ‘챗GPT’ 등을 규제하는 방안을 검토하기 시작했다.

로이터 통신에 따르면, 미 상무부 산하 통신정보관리청(NTIA)은 AI의 책임과 관련해 대중의 관심이 커진 데 따라 AI 시스템 규제 방안을 검토하기 시작했다. AI 시스템이 의도대로 작동하는 동시에 해악을 일으키지 않는 방향으로 사용되기 위해 연방정부가 어떠한 역할을 할 수 있는지 들여다보겠다는 취지로 해석된다.

바이든 대통령도 지난달 AI 관련 회의를 주재하며 “테크 기업들은 대중에 공개하기 전에 자사 제품을 안전하게 만들 책임이 있다”고 말했다. 포브스 등에 따르면, 구글의 전 최고경영자(CEO)인 에릭 슈밋도 전날 AI가 실존적 위험을 가하고 있다면서 “실존적 위험이란 아주 아주 많은 사람이 다치거나 죽는 것을 뜻한다”고 말했다.

슈밋은 머잖아 AI가 ‘제로데이 공격’이나 생명 관련 과학에 이용될 수 있다고 설명했다. 제로데이 공격이란 운영체제 등 핵심 시스템 내 보안 취약점이 발견되면 즉시 이를 겨냥한 해킹 등을 감행하는 것을 뜻한다. 그는 “이는 현재로서는 허구이지만 추론 자체는 사실일 가능성이 높다”면서 “그러면 우리는 악한 이들이 이를 오용하지 않도록 대비하고 있어야 한다”고 했다.

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?