AI시대 대비나선 백악관, 강력 조치 담은 행정명령···MS·구글, 해외 AI 훈련도 정부에 통보해야

이윤정 기자 2023. 10. 31. 16:29
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

조 바이든 미 대통령이 30일(현지시간) AI 산업 발전 정책과 규제 방안을 동시에 담은 행정명령에 서명하고 있다. UPI연합뉴스

미 백악관이 인공지능(AI) 시대에 대비하고 있다. 조 바이든 미 대통령은 30일(현지시간) AI 산업 발전 정책과 규제 방안을 동시에 담은 행정명령에 서명했다. 여기에는 AI 시스템이 국가 안보·경제·보건 분야와 관련될 경우 AI 개발사가 정부에 안전 테스트 결과를 보고토록 하는 등 강력한 조치들이 포함됐다.

이같은 조치는 외국 개인이나 단체(기업) 등이 마이크로소프트(MS)·구글 등 미국 기업의 AI 기술을 이용해 AI 훈련을 할 때도 적용될 것으로 보인다. 사실상 AI와 관련한 세계 각국 정부 조치 중 가장 강력한 것으로, 미국이 세계 AI 규제 표준을 선제적으로 만들려한다는 관측이 나온다.

뉴욕타임스·CNN 등 현지 매체에 따르면, 바이든 대통령은 이날 ‘안전하고 안정적이며 신뢰할 수 있는 AI’에 대한 행정명령에 서명했다. 백악관은 “이번 행정명령이 AI 안전 분야를 발전시키기 위해 세계 각국 정부가 취한 조치 중 가장 중대한 것”이라고 설명했다.

바이든 대통령은 이날 서명에 앞서 “AI의 가능성을 실현하는 동시에 위험을 피하기 위해선 우리는 이 기술을 관리해야만 한다”며 “사람들을 속이기 위한 AI 장치들은 이미 사용되고 있다”고 지적했다. 그러면서 “나도 내 것(딥페이크)을 본 적이 있는데, ‘내가 도대체 언제 저렇게 발언했지’라고 말할 정도였다”라고 밝혔다.

행정명령의 세부내용을 보면, 기업들은 국가 안보·경제·공중보건 등에 큰 영향을 미칠 수 있는 AI 모델은 개발·훈련 단계부터 정부에 통보해야하고, 정부가 꾸린 검증 전문가팀인 ‘레드팀’의 안전테스트를 받아 그 결과를 정부에 보고해야 한다.

백악관은 이 조치를 강제하기 위해 한국전쟁 당시 발효된 국방물자생산법을 동원했다. 바이든 대통령은 “가장 강력한 안전 검증을 진행하기 위해 전쟁 같은 ‘가장 긴급한 순간’을 위해 사용되는 권한을 발동할 것”이라고 설명했다.

특히 미 시사주간지 ‘디애틀랜틱’은 이번 행정명령의 가장 공격적인 조치 중 하나로 “MS, 구글 등 미국 기업의 AI 기술을 사용하는 해외 개인이나 단체가 대규모 생성 AI 훈련 프로그램을 시작할 때 미 정부에 통보해야 하는 규정의 신설을 상무부에 지시한 것”이라고 짚었다.

또 행정명령에는 AI를 이용해 거짓 정보가 확산되는 것을 막기 위해 AI 생성 콘텐츠 워터마크와 인증마크에 대한 표준 및 모범 사례를 수립하는 내용도 담겼다. 이와 함께 기업들은 AI 개발 훈련에 개인정보를 마구잡이로 사용하는 것을 규제하기 위한 지침을 만들어야 하며, AI 때문에 일자리를 잃는 노동자를 지원할 방법도 연구해야 한다.

영국 채텀하우스 선임 연구원 알렉스 크라소돔스키는 BBC에 “이번 행정명령은 미국이 AI 위협에 대처하는 데 있어서 스스로를 (세계의) 지도자로 여기고 있음을 보여주는 것”이라고 말했다.

실제로 카멀라 해리스 미국 부통령은 이날 “우리가 국내에서 취하고 있는 조치가 국제적 조치의 모델이 될 것”이라고 밝혔다. 해리스 부통령은 11월 1~2일 영국에서 열리는 글로벌 AI 안전 정상회의에 참석해 세계 각국 지도자들에게 AI에 잠재된 재앙적 위험을 고려하고 대안을 마련하라고 촉구할 예정이다.

일각에서는 AI 산업에 대한 강력 규제가 산업 발전을 저해할 수 있다는 우려도 나온다. 하지만 뉴욕타임스(NYT)는 “MS·구글·오픈AI·메타와 같은 미 빅테크기업들은 정부의 규제안에 기대를 표했으며 일부 중역들은 안도하는 모습을 보였다”면서 “빅테크 기업들은 현재 자사가 개발한 거대한 AI시스템이 악용될 경우 기업이 책임을 져야 하는 상황을 우려하며 정부가 규제안을 마련해주길 원하고 있다”고 전했다.

이윤정 기자 yyj@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?