“잠재적 위험 정부에 고발 말라”… 오픈AI, 직원 입 막았다
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
'챗GPT' 개발사인 오픈AI의 안전·윤리 문제가 또 다시 도마 위에 올랐다.
오픈AI가 직원들에게 인공지능(AI) 기술 위험을 규제당국에 알리지 못하도록 불법적으로 막았다는 내부 고발이 나왔다.
오픈AI 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 오픈AI가 불법적으로 금지했다는 게 고발 내용이다.
최근 오픈AI는 장기적인 위험에 대해 연구하는 내부 안전팀을 사실상 해체한 것으로 알려졌다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
13일(현지 시간) 미국 워싱턴포스트(WP)에 따르면 오픈AI 일부 직원들은 이달 초 미국 증권거래위원회(SEC)에 회사의 비밀 유지계약에 대한 조사를 촉구하는 서한을 보냈다. 오픈AI 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 오픈AI가 불법적으로 금지했다는 게 고발 내용이다.
내부고발자들은 “오픈AI가 직원들이 연방당국에 정보를 공개할 때 회사 사전 동의를 받도록 했고, 연방 규제당국에 회사에 대한 우려를 제기한 직원들에게 회사 측이 책임을 물을 수 있도록 했다”고 주장했다. 미국에서는 내부 고발을 금지시키는 것은 연방법 위반이다. 이들은 이어 “AI 기업이 감시와 반대로부터 스스로를 보호한다면 안전하고 공익에 부합하는 기술을 개발할 수는 없을 것”이라고 비판했다.
이와 함께 WP 등 외신에 따르면 오픈AI는 최신 AI 모델 ‘GPT-4o’가 자체 보안 테스트를 완전히 통과하지 못했음에도 5월 출시를 강행한 것으로 알려졌다. 지난해 사내 메신저를 해킹당해 AI 기술 설계도에 대한 세부 정보를 해킹당했지만 수사 기관에 알리지 않았다는 폭로도 나왔다. 최근 오픈AI는 장기적인 위험에 대해 연구하는 내부 안전팀을 사실상 해체한 것으로 알려졌다.
AI 선두주자인 오픈AI를 둘러싼 안전성 우려가 커지면서 AI 규제 강화 필요성에 대한 목소리도 커질 전망이다. 오픈AI·구글 딥마인드·앤스로픽 등 전·현직 정보기술(IT)업계 종사자 13명은 지난달 초 ‘첨단 AI에 대해 경고할 권리’라는 제목의 공동 성명을 내고 기술의 위험성을 경고했다. 이들은 성명을 통해 “정보 조작·자율 AI 시스템 통제 상실 등 다양한 위험을 안고 있다”며 “기업 내부 규제만으로 한계가 있는 만큼 적절한 입법이 필요하다”고 주장했다.
남혜정 기자 namduck2@donga.com
Copyright © 동아일보. 무단전재 및 재배포 금지.
- 수입 2배 높은데…‘노인 일자리’보다 ‘폐지’ 줍는 이유는?
- 버스 들어올린 시민영웅들…바퀴에 깔린 할머니 구했다
- “살아있길 잘했어”…‘유방암 투병’ 62세 서정희, 필라테스 대회 출전
- 역주행 택시 잡았는데 운전자 없어…‘벌금 0원’ 정체는? (영상)
- ‘오재원 마약’ 연루자 29명…두산 현역 선수만 9명
- 갑자기 달려든 반려견에 ‘쿵’…“견주가 치료비 700만원 달란다”
- 1시간 안에 두 번 음주운전 적발된 40대 결국 법정구속
- 신발을 벗자…‘맨발 걷기’의 세가지 확실한 이점
- 한컴 차남 법정구속 ‘징역 3년’…“사회적 해악 너무 커 엄벌”
- 이재용, 인도 ‘재벌집 막내아들’ 결혼식 참석…아시아 최고 갑부