"인간 멸종 될 수도"…'AI 위험' 경고 울린 내부자들

이소현 2024. 6. 5. 15:14
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

챗GPT 개발사 오픈AI와 구글 딥마인드의 전·현직 직원들이 규제되지 않은 인공지능(AI)은 위험하다며 '인간 멸종'을 초래할 수 있다고 경고하고 나섰다.

AI를 직접 만든 기업들은 자체적으로 문제를 해결할 수 없다며 위험 우려가 공유될 수 있도록 내부 고발자에 대한 보호 조치가 마련돼야 한다고 주장했다.

4일(현지시간) 월스트리트저널(WSJ)과 로이터통신 등에 따르면 오픈AI, 구글의 딥마인드 전·현직 직원 10여명은 이날 공동 성명을 내고 AI라는 새로운 기술이 초래할 수 있는 위험에 대한 우려를 제기했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈AI·구글 딥마인드 전·현직 직원 성명
"내부고발 불가…기업 내부서 변화 어려워"
"위험 우려 공유될 수 있도록 보호 필요"

[이데일리 이소현 기자] 챗GPT 개발사 오픈AI와 구글 딥마인드의 전·현직 직원들이 규제되지 않은 인공지능(AI)은 위험하다며 ‘인간 멸종’을 초래할 수 있다고 경고하고 나섰다. AI를 직접 만든 기업들은 자체적으로 문제를 해결할 수 없다며 위험 우려가 공유될 수 있도록 내부 고발자에 대한 보호 조치가 마련돼야 한다고 주장했다.

인공지능이 인식을 통해 인류와의 전쟁을 시작할 수 있는 모습을 표현한 공상과학영화의 한 장면(사진=게티이미지)
4일(현지시간) 월스트리트저널(WSJ)과 로이터통신 등에 따르면 오픈AI, 구글의 딥마인드 전·현직 직원 10여명은 이날 공동 성명을 내고 AI라는 새로운 기술이 초래할 수 있는 위험에 대한 우려를 제기했다.

이 성명서에 실명을 올린 윌리엄 손더스 오픈AI 전 직원은 “최첨단 AI 시스템의 작동 방식과 배포와 관련한 위험에 대해 가장 많은 지식을 가진 사람들이 자유롭게 말할 수 없다”고 밝혔다. 손더스 외에도 오픈AI 전 직원 6명, 현 직원4명을 비롯해 딥마인드의 전·현직 직원은 각 1명이 이름을 올렸으며, 서명자 중 6명은 익명을 요구했다.

이들은 성명에서 “AI와 관련된 위험은 기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인간의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양하다”며 “이는 인류의 멸망으로 이어질 수 있다”고 지적했다.

일부 사례로 오픈AI를 비롯한 여러 회사의 AI 프로그램이 투표와 관련한 잘못된 정보를 포함한 사진을 생성한 사례를 발견했다고 전했다.

이러한 AI와 관련한 위험 관리는 맞춤형 기업 지배구조 탓에 기업 내부에서 고발을 하는 등 변화를 일으키기는 어렵다고 밝혔다. 이들은 “AI 기업은 이윤 추구 목표로 제대로 된 감독을 하지 못하고 기업 내부의 규제 시스템만으로는 문제를 해결할 수 없다”며 “AI 기업은 다양한 종류의 위험 수준에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 및 시민사회와 공유할 의무가 약하고, 자발적으로 공유할 것이라고 생각하지 않는다”고 주장했다.

또 AI 기업들이 과도한 기밀 유지 계약으로 관련 우려 제기나 비판을 막아서고 있다고도 비판했다. 이들은 “회사와 광범위한 기밀 유지 계약으로 우려를 표명할 수 없다”며 “일반적인 내부고발자 보호는 불법 행위에 초점을 맞춰져 있으며, 우리 중 일부는 업계 전반에 걸쳐 이런(내부 고발) 사례의 역사를 고려할 때 다양한 형태의 보복을 두려워한다”고 강조했다.

이에 △회사의 위험 관련 우려에 대한 비방이나 비판을 금지하는 계약 체결 금지 △독립 기관에 위험 관련 우려 사항을 제기할 수 있는 익명 절차 마련 △위험 관련 정보를 공개적으로 공유하는 전현직 직원에 대한 보복 금지 등을 촉구했다.

아울러 저명한 AI 전문가들도 이 서한을 지지하고 나섰다고 WSJ은 전했다. AI 과학자 스튜어트 러셀, 초기 획기적인 연구로 ‘AI의 대부’로 불리는 요슈아 벤지오, 제프리 힌튼이 그 주인공이다. 힌튼은 AI 기술의 위험성에 대해 더 자유롭게 이야기하기 위해 작년 구글을 떠나기도 했다.

일부 AI 연구자들은 AI 기술이 통제 불능 상태가 돼 전염병이나 핵전쟁처럼 위험해질 수 있다고 보고 있으며, 이같이 우려의 강도는 낮더라도 AI에 대한 규제를 강화해야한다고 생각하는 전문가들도 많다고 WSJ은 전했다.

생성형 AI 시장을 주도하고 있는 오픈AI는 이 성명에 대한 답변에서 정부의 규제가 필요하다는 데 동의한다고 밝혔다. 오픈AI 대변인은 “우리는 가장 유능하고 안전한 AI 시스템을 제공해온 실적을 자랑스럽게 생각하며, 위험을 해결하기 위한 과학적 접근 방식을 믿는다”며 “우리는 이 기술의 중요성을 고려할 때 엄격한 토론이 중요하다는 데 동의하며 전 세계 정부, 시민 사회 및 기타 커뮤니티와 계속 소통할 것”이라고 했다.

이소현 (atoz@edaily.co.kr)

Copyright © 이데일리. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?