“회사가 AI 위험 경고 막아” 오픈AI, 또 윤리 논란
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
'챗GPT' 개발사인 오픈AI의 안전·윤리 문제가 또다시 도마 위에 올랐다.
오픈AI가 직원들에게 인공지능(AI) 기술 위험을 규제 당국에 알리지 못하도록 불법적으로 막았다는 내부 고발이 나왔다.
오픈AI 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 오픈AI가 불법적으로 금지했다는 게 고발 내용이다.
최근 오픈AI는 장기적인 위험에 대해 연구하는 내부 안전팀을 사실상 해체한 것으로 알려졌다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
불법 비밀 유지 계약 조사 촉구
WP “보안테스트 통과못한채 출시”
‘챗GPT’ 개발사인 오픈AI의 안전·윤리 문제가 또다시 도마 위에 올랐다. 오픈AI가 직원들에게 인공지능(AI) 기술 위험을 규제 당국에 알리지 못하도록 불법적으로 막았다는 내부 고발이 나왔다. 안전 테스트를 충분히 거치지 않고 AI 모델 ‘GPT-4o’ 출시를 강행했다는 논란이 제기된 지 하루 만이다.
13일(현지 시간) 미국 워싱턴포스트(WP)에 따르면 오픈AI 일부 직원들은 이달 초 미국 증권거래위원회(SEC)에 회사의 비밀 유지 계약에 대한 조사를 촉구하는 서한을 보냈다. 오픈AI 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 오픈AI가 불법적으로 금지했다는 게 고발 내용이다.
내부 고발자들은 “오픈AI가 직원들이 연방 당국에 정보를 공개할 때 회사 사전 동의를 받도록 했고, 연방 규제 당국에 회사에 대한 우려를 제기한 직원들에게 회사 측이 책임을 물을 수 있도록 했다”고 주장했다. 미국에서는 내부 고발을 금지시키는 것은 연방법 위반이다. 이들은 이어 “AI 기업이 감시와 반대로부터 스스로를 보호한다면 안전하고 공익에 부합하는 기술을 개발할 수는 없을 것”이라고 비판했다.
이와 함께 WP 등 외신에 따르면 오픈AI는 최신 AI 모델 ‘GPT-4o’가 자체 보안 테스트를 완전히 통과하지 못했음에도 5월 출시를 강행한 것으로 알려졌다. 지난해 사내 메신저를 해킹당해 AI 기술 설계도에 대한 세부 정보를 해킹당했지만 수사 기관에 알리지 않았다는 폭로도 나왔다. 최근 오픈AI는 장기적인 위험에 대해 연구하는 내부 안전팀을 사실상 해체한 것으로 알려졌다.
AI 선두주자인 오픈AI를 둘러싼 안전성 우려가 커지면서 AI 규제 강화 필요성에 대한 목소리도 커질 것으로 전망된다. 오픈AI, 구글 딥마인드, 앤스로픽 등 전현직 정보기술(IT) 업계 종사자 13명은 지난달 초 ‘첨단 AI에 대해 경고할 권리’라는 제목의 공동성명을 내고 기술의 위험성을 경고했다. 이들은 성명을 통해 “정보 조작, 자율 AI 시스템 통제 상실 등 다양한 위험을 안고 있다”며 “기업 내부 규제만으로 한계가 있는 만큼 적절한 입법이 필요하다”고 주장했다.
남혜정 기자 namduck2@donga.com
Copyright © 동아일보. 무단전재 및 재배포 금지.
- 경찰공조 안되고 제보도 묵살… “비밀경호국 역사적 실패”
- [천광암 칼럼]‘원한과 저주’의 여당 전대
- 트럼프 지지층 결집에 대선판 출렁…“당선확률 70%” 예측도
- 美 사진기자들은 어떻게 트럼프가 총 맞는 순간을 찍을 수 있었을까?[청계천 옆 사진관]
- 총알 스치고도 주먹 불끈… 美언론 “역사에 남을 장면”
- NYT “트럼프, 대통령직에 부적합”…강하게 사퇴 압박
- 음식 섭취 후 갑작스러운 메스꺼움과 구토를 느꼈다.
- [사설]동력 상실한 삼성전자 노조의 ‘자해 파업’, 당장 멈춰야
- 與 나경원-원희룡 단일화 가능성? 막판 변수로 떠올라
- 태권도 관장, 피해아동 CPR 받는새 CCTV 영상 지웠다