AI 개발자들 “AI 위험성 경고할 권리 보장하라”

이기욱 기자 2024. 6. 6. 01:43
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

"인공지능(AI)이 야기할 위험에 대응하려면 내부 고발자 보호가 꼭 필요하다."

챗GPT를 개발한 오픈AI, 알파고를 만든 구글 딥마인드 등 대표 AI 기업의 전현직 직원 13명이 "직원들이 보복 걱정 없이 AI 위험성을 경고할 권리를 보장하라"고 촉구했다.

AI 기술이 지닌 각종 위험성을 담은 비공개 정보를 사회에 알려야 할 필요가 있지만 이들 기업이 내부 고발자에게 불이익을 주는 계약을 체결해 의도적으로 억압하고 있다는 이유에서다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈AI-구글 등 전현직 13명 촉구
“고발땐 불이익 주는 계약으로 억압”
오픈AI “내부 소통 통로 있다” 진화


“인공지능(AI)이 야기할 위험에 대응하려면 내부 고발자 보호가 꼭 필요하다.”

챗GPT를 개발한 오픈AI, 알파고를 만든 구글 딥마인드 등 대표 AI 기업의 전현직 직원 13명이 “직원들이 보복 걱정 없이 AI 위험성을 경고할 권리를 보장하라”고 촉구했다. AI 기술이 지닌 각종 위험성을 담은 비공개 정보를 사회에 알려야 할 필요가 있지만 이들 기업이 내부 고발자에게 불이익을 주는 계약을 체결해 의도적으로 억압하고 있다는 이유에서다.

이들 13명은 4일 ‘첨단 AI에 대한 경고 권리(Right to Warn)’라는 제목의 공동 성명을 통해 “우리는 인류에 전례 없는 혜택을 제공할 수 있는 AI 기술의 잠재력을 믿지만 동시에 이런 기술이 초래할 심각한 위험도 알고 있다”고 밝혔다. 그러면서 허위 정보 확산, AI 체계의 통제력 상실, 불평등 심화 등 AI로 인한 위험을 열거했다.

특히 주요 AI 기업이 이윤 추구라는 목표 때문에 해당 위험에 대한 제대로 된 감독을 하지 못해 내부 고발자가 꼭 필요하다며 “기업 내부의 규제만으로는 이 문제를 해결할 수 없다”고 강조했다. 이 위험에 관한 다양한 정보를 기업들이 자발적으로 정부 및 시민사회와 공유할 것으로 생각하지 않는다고도 꼬집었다.

또한 이들은 “정부의 효과적인 감독이 없는 한, AI 기업의 전현직 직원들은 AI 기술의 위험성과 책임을 물을 수 있는 몇 안 되는 사람들”이라며 “우리의 우려를 대중에게 보고할 자유를 가져야 한다”고 거듭 강조했다. 현재 오픈AI는 퇴사자를 대상으로 “퇴사 후 회사를 비판하면 지분 투자 기회를 박탈한다”는 계약 등을 맺고 있다.

뉴욕타임스(NYT)에 따르면 성명 작성에 참석한 오픈AI의 전 직원 대니얼 코코타즐로 씨는 새 AI 모델을 공개하기 전 오픈AI, 마이크로소프트(MS)가 사전회의를 하지만 이 회의에서 신기술에 대한 위험성을 경고하고 제동을 거는 사례는 거의 없다고 폭로했다.

논란이 고조되자 오픈AI는 “익명의 핫라인을 포함해 조직 내 직원들이 우려를 표할 수 있는 통로를 두고 있다”고 진화에 나섰다. 또 AI 기술의 위험성을 규제할 필요성에 동의하며 각국 정부, 시민사회 등과 협력하겠다고 밝혔다.

이기욱 기자 71wook@donga.com

Copyright © 동아일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?