"인간 멸종 될 수도"…'AI 위험' 경고 울린 내부자들
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
챗GPT 개발사 오픈AI와 구글 딥마인드의 전·현직 직원들이 규제되지 않은 인공지능(AI)은 위험하다며 '인간 멸종'을 초래할 수 있다고 경고하고 나섰다.
AI를 직접 만든 기업들은 자체적으로 문제를 해결할 수 없다며 위험 우려가 공유될 수 있도록 내부 고발자에 대한 보호 조치가 마련돼야 한다고 주장했다.
4일(현지시간) 월스트리트저널(WSJ)과 로이터통신 등에 따르면 오픈AI, 구글의 딥마인드 전·현직 직원 10여명은 이날 공동 성명을 내고 AI라는 새로운 기술이 초래할 수 있는 위험에 대한 우려를 제기했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
"내부고발 불가…기업 내부서 변화 어려워"
"위험 우려 공유될 수 있도록 보호 필요"
[이데일리 이소현 기자] 챗GPT 개발사 오픈AI와 구글 딥마인드의 전·현직 직원들이 규제되지 않은 인공지능(AI)은 위험하다며 ‘인간 멸종’을 초래할 수 있다고 경고하고 나섰다. AI를 직접 만든 기업들은 자체적으로 문제를 해결할 수 없다며 위험 우려가 공유될 수 있도록 내부 고발자에 대한 보호 조치가 마련돼야 한다고 주장했다.
이 성명서에 실명을 올린 윌리엄 손더스 오픈AI 전 직원은 “최첨단 AI 시스템의 작동 방식과 배포와 관련한 위험에 대해 가장 많은 지식을 가진 사람들이 자유롭게 말할 수 없다”고 밝혔다. 손더스 외에도 오픈AI 전 직원 6명, 현 직원4명을 비롯해 딥마인드의 전·현직 직원은 각 1명이 이름을 올렸으며, 서명자 중 6명은 익명을 요구했다.
이들은 성명에서 “AI와 관련된 위험은 기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인간의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양하다”며 “이는 인류의 멸망으로 이어질 수 있다”고 지적했다.
일부 사례로 오픈AI를 비롯한 여러 회사의 AI 프로그램이 투표와 관련한 잘못된 정보를 포함한 사진을 생성한 사례를 발견했다고 전했다.
이러한 AI와 관련한 위험 관리는 맞춤형 기업 지배구조 탓에 기업 내부에서 고발을 하는 등 변화를 일으키기는 어렵다고 밝혔다. 이들은 “AI 기업은 이윤 추구 목표로 제대로 된 감독을 하지 못하고 기업 내부의 규제 시스템만으로는 문제를 해결할 수 없다”며 “AI 기업은 다양한 종류의 위험 수준에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 및 시민사회와 공유할 의무가 약하고, 자발적으로 공유할 것이라고 생각하지 않는다”고 주장했다.
또 AI 기업들이 과도한 기밀 유지 계약으로 관련 우려 제기나 비판을 막아서고 있다고도 비판했다. 이들은 “회사와 광범위한 기밀 유지 계약으로 우려를 표명할 수 없다”며 “일반적인 내부고발자 보호는 불법 행위에 초점을 맞춰져 있으며, 우리 중 일부는 업계 전반에 걸쳐 이런(내부 고발) 사례의 역사를 고려할 때 다양한 형태의 보복을 두려워한다”고 강조했다.
이에 △회사의 위험 관련 우려에 대한 비방이나 비판을 금지하는 계약 체결 금지 △독립 기관에 위험 관련 우려 사항을 제기할 수 있는 익명 절차 마련 △위험 관련 정보를 공개적으로 공유하는 전현직 직원에 대한 보복 금지 등을 촉구했다.
아울러 저명한 AI 전문가들도 이 서한을 지지하고 나섰다고 WSJ은 전했다. AI 과학자 스튜어트 러셀, 초기 획기적인 연구로 ‘AI의 대부’로 불리는 요슈아 벤지오, 제프리 힌튼이 그 주인공이다. 힌튼은 AI 기술의 위험성에 대해 더 자유롭게 이야기하기 위해 작년 구글을 떠나기도 했다.
일부 AI 연구자들은 AI 기술이 통제 불능 상태가 돼 전염병이나 핵전쟁처럼 위험해질 수 있다고 보고 있으며, 이같이 우려의 강도는 낮더라도 AI에 대한 규제를 강화해야한다고 생각하는 전문가들도 많다고 WSJ은 전했다.
생성형 AI 시장을 주도하고 있는 오픈AI는 이 성명에 대한 답변에서 정부의 규제가 필요하다는 데 동의한다고 밝혔다. 오픈AI 대변인은 “우리는 가장 유능하고 안전한 AI 시스템을 제공해온 실적을 자랑스럽게 생각하며, 위험을 해결하기 위한 과학적 접근 방식을 믿는다”며 “우리는 이 기술의 중요성을 고려할 때 엄격한 토론이 중요하다는 데 동의하며 전 세계 정부, 시민 사회 및 기타 커뮤니티와 계속 소통할 것”이라고 했다.
이소현 (atoz@edaily.co.kr)
Copyright © 이데일리. 무단전재 및 재배포 금지.
- ‘석유 매장’ 예측 액트지오 대표 입국 “명확한 답 위해 방한”
- 月200만원에 7남매 키운 ‘고딩엄빠’ 전세임대 들어간다
- “수혈 거절로 이틀 뒤 숨져...암 전이됐는데 진료 거절”
- 80대 노모 머리채 잡고 끌고 다니고 폭행한 아들…결국 실형
- “자해 우려” 김호중, 독방 구조 보니…“정준영·조주빈도 있었다”
- “내 체액이 왜 거기에?” 여교사 성폭행한 학부모들 [그해오늘]
- 손목 다친 배지환, 부상자 명단…‘방출 대기’ 고우석 마이너리그 잔류
- "44명 다 있다"...노래방 도우미에 '밀양 성폭행' 누설 경찰까지 경악
- '나는 솔로' 20기 광수, 현숙에 직진 "나를 바꿀수 있어…승부욕 생긴다"
- SM 측 "NCT 쟈니·해찬 성매매·마약 루머 사실 무근"[공식]