오픈AI·구글 직원 “AI 위험 내부 고발자 보호해야” 촉구
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
챗GPT 개발사 오픈AI와 구글 딥마인드의 전현직 직원들이 인공지능(AI)의 위험을 경고했다.
그러면서 이들은 이러한 위험 우려가 공유될 수 있도록 내부 고발자에 대한 보호 조치가 마련돼야 한다고 촉구했다.
그러면서 이들은 AI가 얼마나 위험한지 모두가 알 수 있도록 내부 고발자에 대한 보호조치가 마련돼야 한다고 주장했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
“AI 기술의 위험성…회사와 기밀 유지 계약해 우려 표명 못해”
(시사저널=김민지 디지털팀 기자)
챗GPT 개발사 오픈AI와 구글 딥마인드의 전현직 직원들이 인공지능(AI)의 위험을 경고했다. 그러면서 이들은 이러한 위험 우려가 공유될 수 있도록 내부 고발자에 대한 보호 조치가 마련돼야 한다고 촉구했다.
4일(현지 시각) 13명 이들 전현직 직원은 공동 성명을 내고 "우리는 AI 기술에 의해 야기되는 심각한 위험을 알고 있다. 이런 위험은 기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인간의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양하다"며 "전 세계 정부와 다른 AI 전문가, AI 회사 자체도 이를 인정했다"고 밝혔다. 이날 공동 성명에 이름을 올린 이들은 오픈AI 전현직 직원 11명, 구글 딥마인드 전현직 직원 2명이다.
이들은 "AI 기업은 이윤 추구 목표로 제대로 된 감독을 하지 못하고 기업 내부의 규제 시스템만으로는 문제를 해결할 수 없다"고 지적했다. 또 "AI 기업은 다양한 종류의 위험 수준에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 및 시민사회와 공유할 의무가 약하고, 자발적으로 공유할 것이라고 생각하지 않는다"고 말했다.
그러면서 이들은 AI가 얼마나 위험한지 모두가 알 수 있도록 내부 고발자에 대한 보호조치가 마련돼야 한다고 주장했다. 이들은 회사의 위험 관련 우려에 대한 비방이나 비판을 금지하는 계약 체결 금지, 독립 기관에 위험 관련 우려 사항을 제기할 수 있는 익명 절차 마련, 위험 관련 정보를 공개적으로 공유하는 전현직 직원에 대한 보복 금지 등을 촉구했다.
기업에 대한 정부의 효과적인 감독이 없는 한 전현직 직원들이 대중에게 책임을 느끼는 몇 안 되는 사람 중 하나라고 이들은 말했다. 그러나 "회사와 광범위한 기밀 유지 계약으로 우려를 표명할 수 없다"고 짚었다. 이어 이들은 "일반적인 내부고발자 보호는 불법 행위에 초점을 맞춰져 있다"며 "우리 중 일부는 업계 전반에 걸쳐 이런(내부 고발) 사례의 역사를 고려할 때 다양한 형태의 보복을 두려워한다"고 강조했다.
Copyright © 시사저널. 무단전재 및 재배포 금지.
- [단독] 탈퇴한 신도들 “여고생 사망 교회, 사건 은폐 중…진상규명 촉구” - 시사저널
- ‘밀양 집단 성폭행’ 사건 일파만파…“발 뻗고 잘사는 가해자들” 공분 - 시사저널
- “尹, 대통령직 유지할 수 있을지 의문…‘이재명 일극화’는 비판을 위한 비판” - 시사저널
- 6년 지났는데…김정숙 ‘인도 순방’ 논란 일파만파 - 시사저널
- 부모·자녀 모두 부양하는 60년대생…30% “난 고독사할것” - 시사저널
- 재산분할도 ‘역대급’인 SK 세기의 이혼…판 뒤집은 노소영의 카드는? - 시사저널
- 잠든 남편에 ‘빙초산’ 뿌리며 자신은 고글 쓴 아내…“반성한다” - 시사저널
- “OO년 임관 女중대장”…훈련병 사망 사건, 성별 논란으로 비화하나 - 시사저널
- 물처럼 마시는 ‘커피’…과다 섭취시 의외의 부작용이? - 시사저널
- 음주는 어떻게 뇌를 망가뜨리나 [오윤환의 느낌표 건강] - 시사저널