인공지능으로 인한 ‘재앙’ 막아라…AI 빅테크, ‘안전판’ 마련 잰걸음

김은성 기자 2023. 10. 29. 21:39
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

각국 규제 움직임에 선제적 조치
챗GPT 개발 오픈AI 대비팀 신설
구글·MS 등 ‘세이프티 펀드’ 출범
국내선 ‘자율 검·인증 제도’ 추진

인공지능(AI) 개발을 주도하는 빅테크 기업들이 AI가 초래할 위험에 대비하고자 조직 신설 등 자율적인 내부통제 방안 마련에 나섰다.

각국 정부가 ‘AI 가드레일(안전장치)’ 제정에 돌입한 가운데 본격적인 규제 도입 전 업계 주도로 선제적 해법을 제시하기 위한 조치다.

29일(현지시간) 워싱턴포스트(WP)와 BBC 등에 따르면 챗GPT 개발사 오픈AI는 지난 27일 AI의 위험을 줄이기 위한 자체 대비팀을 신설했다.

해당 조직은 AI가 일으킬 수 있는 치명적인 위험을 추적·평가·예측해 사전에 막는 것을 목표로 한다.

오픈AI는 “AI가 인류에게 혜택을 줄 수 있는 잠재력이 있다고 믿지만 동시에 심각한 위험을 초래할 수 있다”며 “새로운 AI 시스템의 위험한 기능을 예측하고 사람들을 보호할 수 있는 뼈대를 구축해야 한다”고 밝혔다.

다른 기업들도 유사한 안전판 마련에 나섰다. 구글, 마이크로소프트(MS), 오픈AI, 앤트로픽은 지난 26일 1000만달러 규모의 ‘AI 세이프티 펀드’를 출범시켰다. AI 안전 분야를 탐구하는 연구자와 스타트업을 지원하는 펀드로 4개 기업과 에릭 슈미트 전 구글 최고경영자(CEO) 등 개인 기부자들이 참여했다.

앞서 이들 빅테크 기업은 지난 7월 자신들의 이해관계를 대변하기 위해 ‘프런티어 모델 포럼’을 발족하고, 정책입안자 및 학자들과 협업해 AI 모델 개발과 관련한 정보를 공유하겠다고 밝혔다.

이런 움직임은 각국 정부의 규제에 대응하기 위한 차원이다. 미국 백악관은 30일 ‘안전하고 신뢰할 수 있는 AI’ 행사를 열고 행정명령을 발표한다. 행정명령에는 미국 정보·안보 당국이 AI 기술 이용 시 관련 기술에 대한 검증을 받도록 의무화하는 규제 방안이 담길 것으로 알려졌다.

정부 차원의 AI 안전 연구소 설립을 검토 중인 영국은 다음달 1일 주요 7개국(G7·미국, 일본, 독일, 영국, 프랑스, 캐나다, 이탈리아)을 포함해 세계 정상들과 함께 ‘AI 안전 정상회의’를 연다. 주요국 정상급 인사, 빅테크 기업, 전문가 등이 모여 AI 위험성을 공유하고 대책을 논의하는 국가 회의체다. 한국에서는 이종호 과학기술정보통신부 장관과 삼성전자(전경훈 DX 부문 최고기술책임자), 네이버(하정우 AI센터장)가 참여한다.

일각에서는 업계의 자율적인 방안 마련을 두고 한계가 있을 것이라는 지적도 나온다. BBC는 “AI 기업들이 협력하는 것처럼 보이지만 실제로 어떤 데이터를 이용하고 어떻게 작동하는지 등은 모두 비밀로 하고 있다”며 “(기업들이) 얼마나 투명하게 밝힐 수 있을지는 미지수”라고 전했다.

국내에서는 과기정통부가 기업들과 함께 AI 서비스 분야별로 가이드라인을 만들고, 이를 확대하기 위한 자율적인 검·인증 제도를 다음달부터 본격 추진한다.

김은성 기자 kes@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?