“오픈AI, 인공지능 위험 경고 불법적으로 막아” 내부 고발

양민효 2024. 7. 14. 04:18
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

챗GPT 개발사 오픈AI가 직원들에게 인공지능 AI 기술의 위험성을 규제 당국에 알리지 못하도록 불법적으로 막았다는 내부 고발이 제기됐습니다.

내부고발에 나선 이들은 오픈AI 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 오픈AI가 불법적으로 금지했다고 주장했습니다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

챗GPT 개발사 오픈AI가 직원들에게 인공지능 AI 기술의 위험성을 규제 당국에 알리지 못하도록 불법적으로 막았다는 내부 고발이 제기됐습니다.

현지시각으로 13일 워싱턴포스트(WP)에 따르면 오픈AI 일부 직원들은 이달 초 연방거래위원회(SEC)에 서한을 보내, 회사의 비밀 유지계약에 대한 조사를 촉구했습니다.

내부고발에 나선 이들은 오픈AI 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 오픈AI가 불법적으로 금지했다고 주장했습니다.

이들은 오픈AI가 직원들과 체결한 고용과 퇴직, 비밀유지 계약이 지나치게 제한돼 있고, 이 계약을 근거로 회사 측은 규제당국에 회사에 대한 우려를 제기한 직원들에게 책임을 물을 수 있도록 돼 있다고 말했습니다.

구체적으로 "회사가 직원들에게 내부고발자 보상에 대한 연방 권리를 포기하도록 하는 협약에 서명하도록 했고, 직원들이 연방 당국에 정보를 공개하려 할 경우 회사의 사전 동의를 받도록 했다"고 강조했습니다.

이처럼 지나치게 광범위한 협정은 내부 고발자 보호를 위한 연방법과 규정을 위반한 것이라고 이들은 주장했습니다.

이에 대해 오픈AI 대변인은 회사의 내부 고발 정책은 직원들이 보호받는 정보를 알릴 권리를 보장하고 있다고 반박했습니다. 또 오픈AI가 "직원들이 퇴직 시 회사를 비방하지 않는다는 조건을 없애는 중요한 변화를 이미 시행했다"고 말했습니다.

이번 내부 고발은 비영리 단체로 시작한 오픈AI가 자사의 AI 기술을 만드는 데 있어 안전보다 이익을 우선시하고 있다는 우려가 나오는 가운데 제기됐습니다.

2015년 비영리 회사로 출발한 오픈AI는 일반 영리회사로 전환하는 방안을 검토 중인데, AI의 장기적인 위험에 대해 연구하는 팀을 사실상 해체한 것으로 전해졌습니다.

[사진 출처 : 로이터=연합뉴스]

■ 제보하기
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 카카오 '마이뷰', 유튜브에서 KBS뉴스를 구독해주세요!

양민효 기자 (gonggam@kbs.co.kr)

Copyright © KBS. All rights reserved. 무단 전재, 재배포 및 이용(AI 학습 포함) 금지

이 기사에 대해 어떻게 생각하시나요?