[팩플] 직원들 입 막고, 사고는 쉬쉬... 브레이크 사라진 오픈AI, 이대로 괜찮나

김남영 2024. 7. 14. 17:31
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AGI(일반인공지능‧인간 이상의 지능을 가진 AI)를 향해 달리는 오픈AI에 브레이크가 보이지 않는다. 최근 사내 메신저 해킹 피해를 수사기관 등 외부에 알리지 않았다는 폭로가 나온 데 이어, 이번엔 AI의 기술 윤리 문제를 지적하는 직원들의 내부 고발을 막았다는 주장이 제기됐다.

로이터=연합뉴스


무슨 일이야


13일(현지시간) 워싱턴포스트(WP)에 따르면 오픈AI 일부 직원들은 이달 초 연방거래위원회(SEC)에 회사의 비밀 유지계약에 대한 조사를 촉구하는 서한을 보냈다. 내부고발자들(whistleblowers)은 “오픈AI가 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 불법적으로 금지했다”고 주장했다.

이들은 오픈AI가 지나치게 광범위한 고용·퇴직 및 비밀 유지 계약을 체결했다는 입장이다. 서한에는 “오픈AI가 직원들에게 내부고발자 보상에 대한 연방 권리를 포기하도록 하는 협약에 서명하게 했고 직원들이 연방 당국에 정보를 공개하고자 할 경우 회사로부터 사전 동의를 받게 했다”며 “AI 회사들이 감시와 반대를 피한다면 안전하고 공익에 부합하는 기술을 만들 수 없다고 생각한다”는 내용이 담겼다.

폭로는 여기서 그치지 않았다. WP의 다른 보도에 따르면 오픈AI는 지난 5월 GPT-4o 출시를 앞두고 안전팀에게 테스트 절차를 빨리 하도록 압박했다. 최근에는 오픈AI 경영진이 AI 기술 설계도 관련 세부 정보가 해킹됐다는 사실을 쉬쉬했다는 게 뒤늦게 알려졌다. 뉴욕타임스(NYT)는 지난 4일 소식통을 인용해 “해커가 오픈AI 직원들의 온라인 대화방에 침입해 정보를 빼갔다”고 밝혔다.


이게 왜 중요해


오픈AI가 AI 윤리 문제를 뒷전으로 미룬 채 기술 개발과 수익성에만 집중하는 것 아니냐는 우려가 나온다. 앤스로픽의 AI 모델 ‘클로드’ 등 경쟁자들이 빠르게 오픈AI를 따라잡자 오픈AI의 AI 개발 속도에도 브레이크 없이 가속도가 붙었다. 샘 올트먼은 10년 안에 AGI에 도달할 수 있다고 공언하고 있다. 하지만 가장 최신 모델인 GPT-4o는 배우 스칼렛 요한슨의 목소리를 무단으로 학습했다는 논란에 시달렸고, 오픈AI를 둘러싼 안전성 문제는 계속 도마에 오르고 있다.

안전 문제를 강조하며 샘 올트먼을 최고경영자(CEO) 자리에서 몰아내는 ‘쿠데타’까지 일으켰던 일리야 수츠케버도 오픈AI를 떠난 상황. 작년 7월 설립돼 안전한 AI 기술 개발 및 제어 방식을 연구하던 ‘초정렬(SuperAlignment)’팀도 지난 5월 해체됐다. 수츠케버와 함께 초정렬팀에 있던 얀 레이케 역시 지난 5월 오픈AI를 떠나며 자신의 X에 “(오픈AI의) 안전 문화와 절차가 반짝이는 제품 뒷전으로 밀려났다”고 지적했다.


앞으로는


우려 속에서 오픈AI는 차세대 AI 모델인 GPT-5를 준비 중. 출시 시기는 공식 발표된 바 없으나, 비즈니스인사이더 등 외신에서는 이르면 올 여름 출시될 예정이라고 보도하고 있다. GPT-5의 기술 수준이 오픈AI가 정한 ‘2단계’에 도달할지 여부도 주목된다. 오픈AI는 AI 능력 수준을 챗봇(Chatbots)·추론자(Reasoners)·에이전트(Agents)·혁신자(Innovators)·조직(Organizations) 등 5단계로 나눠 제시한다. 현재 자신들의 기술은 고도의 문제해결 능력을 갖춘 2단계 ‘추론자’에 도달하기 직전인 수준으로 평가하고 있다.
신재민 기자


오픈AI는 현재 AI 추론 능력을 높이기 위한 프로젝트 ‘스트로베리’(코드명)에도 돌입했다. 로이터에 따르면 스트로베리 프로젝트는 이전에는 ‘큐스타’(Q*)로 불렸고, 활동은 오픈AI 안에서도 비밀로 유지돼 왔다. 프로젝트의 목적은 AI가 질문에 답변을 생성하는 것뿐 아니라 미리 계획을 세워 안정적이고 독자적으로 인터넷을 탐색하게 하는 것이다.

■ 함께 보면 좋을 팩플 오리지널

「 안전과 수익 사이에서 균열이 벌어지고 있는 오픈AI, 이 낌새는 지난해 하반기부터 드러나기 시작했습니다. 지금은 오픈AI를 떠난 ‘AI 안전론자’, 일리야 수츠케버가 일으킨 ‘샘 올트먼 기습 해고 사태’ 막전막후부터 보시면 오픈AI의 현재를 이해할 수 있습니다.

한호정 디자이너


올트먼 쫓아낸 주동자의 돌변…‘실패한 쿠데타’ 막전막후
https://www.joongang.co.kr/article/25210425

김남영 기자 kim.namyoung3@joongang.co.kr

Copyright © 중앙일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?