“회사가 AI 위험 경고 막아” 오픈AI, 또 윤리 논란

남혜정 기자 2024. 7. 15. 03:05
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

'챗GPT' 개발사인 오픈AI의 안전·윤리 문제가 또다시 도마 위에 올랐다.

오픈AI가 직원들에게 인공지능(AI) 기술 위험을 규제 당국에 알리지 못하도록 불법적으로 막았다는 내부 고발이 나왔다.

오픈AI 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 오픈AI가 불법적으로 금지했다는 게 고발 내용이다.

최근 오픈AI는 장기적인 위험에 대해 연구하는 내부 안전팀을 사실상 해체한 것으로 알려졌다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

일부 직원들, SEC에 서한 보내
불법 비밀 유지 계약 조사 촉구
WP “보안테스트 통과못한채 출시”


‘챗GPT’ 개발사인 오픈AI의 안전·윤리 문제가 또다시 도마 위에 올랐다. 오픈AI가 직원들에게 인공지능(AI) 기술 위험을 규제 당국에 알리지 못하도록 불법적으로 막았다는 내부 고발이 나왔다. 안전 테스트를 충분히 거치지 않고 AI 모델 ‘GPT-4o’ 출시를 강행했다는 논란이 제기된 지 하루 만이다.

13일(현지 시간) 미국 워싱턴포스트(WP)에 따르면 오픈AI 일부 직원들은 이달 초 미국 증권거래위원회(SEC)에 회사의 비밀 유지 계약에 대한 조사를 촉구하는 서한을 보냈다. 오픈AI 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 오픈AI가 불법적으로 금지했다는 게 고발 내용이다.

내부 고발자들은 “오픈AI가 직원들이 연방 당국에 정보를 공개할 때 회사 사전 동의를 받도록 했고, 연방 규제 당국에 회사에 대한 우려를 제기한 직원들에게 회사 측이 책임을 물을 수 있도록 했다”고 주장했다. 미국에서는 내부 고발을 금지시키는 것은 연방법 위반이다. 이들은 이어 “AI 기업이 감시와 반대로부터 스스로를 보호한다면 안전하고 공익에 부합하는 기술을 개발할 수는 없을 것”이라고 비판했다.

이와 함께 WP 등 외신에 따르면 오픈AI는 최신 AI 모델 ‘GPT-4o’가 자체 보안 테스트를 완전히 통과하지 못했음에도 5월 출시를 강행한 것으로 알려졌다. 지난해 사내 메신저를 해킹당해 AI 기술 설계도에 대한 세부 정보를 해킹당했지만 수사 기관에 알리지 않았다는 폭로도 나왔다. 최근 오픈AI는 장기적인 위험에 대해 연구하는 내부 안전팀을 사실상 해체한 것으로 알려졌다.

AI 선두주자인 오픈AI를 둘러싼 안전성 우려가 커지면서 AI 규제 강화 필요성에 대한 목소리도 커질 것으로 전망된다. 오픈AI, 구글 딥마인드, 앤스로픽 등 전현직 정보기술(IT) 업계 종사자 13명은 지난달 초 ‘첨단 AI에 대해 경고할 권리’라는 제목의 공동성명을 내고 기술의 위험성을 경고했다. 이들은 성명을 통해 “정보 조작, 자율 AI 시스템 통제 상실 등 다양한 위험을 안고 있다”며 “기업 내부 규제만으로 한계가 있는 만큼 적절한 입법이 필요하다”고 주장했다.

남혜정 기자 namduck2@donga.com

Copyright © 동아일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?