오픈AI·구글 전현직 직원 'AI 위험' 경고…"내부고발자 보호하라"

오수연 2024. 6. 5. 06:28
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

챗GPT 개발사 오픈AI와 구글 딥마인드 전·현직 직원 13명이 인공지능(AI)의 급속한 발전에 우려를 표하는 성명을 4일(현지시간) 발표했다.

이들은 성명에서 "우리는 AI 기술에 의해 야기되는 심각한 위험을 알고 있다"면서 이같이 밝혔다.

성명은 전·현직 직원들이 이 같은 문제에 대해 책임을 느끼지만, AI 산업에 대한 내부 고발자 보호가 미비해 목소리를 내기 어렵다고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

챗GPT 개발사 오픈AI와 구글 딥마인드 전·현직 직원 13명이 인공지능(AI)의 급속한 발전에 우려를 표하는 성명을 4일(현지시간) 발표했다.

이들은 성명에서 "우리는 AI 기술에 의해 야기되는 심각한 위험을 알고 있다"면서 이같이 밝혔다.

[이미지출처=로이터연합뉴스]

이들은 "(AI의) 위험은 기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인류의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양하다"며 "전 세계 정부와 다른 AI 전문가, AI 회사 자체도 이를 인정했다"고 말했다.

그러나 현재 법 체제에서는 AI 기업이 이 같은 위험에 대한 중요한 정보를 자발적으로 공유하지 않을 것이며, 기업이 자체적으로 문제를 해결할 수도 없다고 지적했다. 이들은 "AI 기업은 기술로 인해 발생하는 다양한 종류의 위험에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부와 공유할 의무가 약하고, 시민 사회와 공유할 의무가 없다"며 "우리는 이러한 기술을 모두 신뢰할 수 있다고 생각하지는 않는다"고 말했다.

또 "AI 기업은 이윤 추구를 목표해 제대로 된 감독을 하지 못하고, 기업 내부의 규제 시스템만으로는 문제를 해결할 수 없다"고 전했다.

성명은 전·현직 직원들이 이 같은 문제에 대해 책임을 느끼지만, AI 산업에 대한 내부 고발자 보호가 미비해 목소리를 내기 어렵다고 밝혔다. 내부 고발자 보호 조치 마련을 촉구했다. 이들은 "회사와 광범위한 기밀 유지 계약으로 우려를 표명할 수 없다"며 "일반적인 내부 고발자 보호는 불법 활동에 중점을 두기 때문에 불충분하다. 우리가 우려하는 위험 중 상당수는 아직 규제되지 않았다"고 주장했다. 또 "우리 중 일부는 업계 전반에 걸쳐 내부 고발 사례를 고려할 때 다양한 형태의 보복을 두려워한다"고 강조했다.

성명에는 오픈AI 전·현직 직원 각각 7명과 4명, 구글 딥마인드 전·현직 직원 각 1명이 이름을 올렸다.

오수연 기자 syoh@asiae.co.kr

Copyright © 아시아경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?