오픈AI, 장기리스크 대비 안전팀 해체

이덕주 특파원(mrdjlee@mk.co.kr) 2024. 5. 19. 16:09
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

챗GPT 개발사 오픈AI가 인공지능(AI)의 장기적인 위험에 대해 연구하는 팀을 해체한 가운데 이를 이끌던 임원이 회사의 정책을 공개 비판했다.

18일(현지시간) 블룸버그 등 외신에 따르면 오픈AI의 슈퍼얼라이먼트 팀은 일리야 수츠케버 오픈AI 최고과학책임자가 회사를 떠난 직후 다른 팀과 통폐합됐다.

하지만 지난해 11월 샘 올트먼 축출을 주도했던 일리야 수츠케버의 퇴사와 함께 팀이 해체되면서 오픈AI가 AI안전을 소홀히 하는 것이 아니냐는 해석이 나오고 있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

안전팀 임원, 회사 정책 공개 비판

챗GPT 개발사 오픈AI가 인공지능(AI)의 장기적인 위험에 대해 연구하는 팀을 해체한 가운데 이를 이끌던 임원이 회사의 정책을 공개 비판했다.

18일(현지시간) 블룸버그 등 외신에 따르면 오픈AI의 슈퍼얼라이먼트 팀은 일리야 수츠케버 오픈AI 최고과학책임자가 회사를 떠난 직후 다른 팀과 통폐합됐다. 이 팀은 오픈AI는 작년 7월 ‘초지능 AI’의 위험에 대비하고자 만든 팀이다.

하지만 지난해 11월 샘 올트먼 축출을 주도했던 일리야 수츠케버의 퇴사와 함께 팀이 해체되면서 오픈AI가 AI안전을 소홀히 하는 것이 아니냐는 해석이 나오고 있다. 당시 샘 올트먼 CEO가 AI 개발 경쟁에 집중하다 보니 안전을 등한시한 것이 축출의 이유라는 설명도 나왔기 때문이다.

특히 해당 팀을 이끌어 온 얀 레이케도 회사를 사직했다. 그는 자신의 X(옛 트위터)계정을 통해 회사를 공개 비판하기도 했다. 얀 레이케는 “나는 오픈AI가 이 연구(초정렬)를 하기 가장 좋은 곳이 될 것으로 생각했었다”며 “그러나 오랫동안 회사의 핵심 우선순위에 대해 경영진과 의견이 달랐다”고 토로했다. 그는 “인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 노력”이라며 “오픈AI는 인류를 대표해 엄청난 책임을 지고 있지만, 지난 몇 년간 안전 문화와 프로세스는 제품 뒷전으로 밀려났다”고 비판했다.

오픈AI는 얀 레이케의 공개 비판에도 불구하고 오픈AI는 자신들이 안전을 최우선으로 하고 있다고 답했다. 그의 트윗에 샘 올트먼 CEO와 그렉 브록먼 사장의 명의로 답변을 남기면서 “AGI(일반인공지능)로 가는 길에 대한 입증된 플레이북(지침서)은 아직 없다”면서 “경험적인 이해가 앞으로 나아갈 방향을 제시하는 데 도움이 될 수 있다고 생각한다. 오픈AI는 긍정적인 측면을 제공하는 동시에 심각한 위험을 완화하기 위해 노력하고 있다”고 밝혔다. 또한, “(AI개발 과정에서) 언제 출시 안전 기준에 도달할 수 있을지 아직 확실하지 않으며, 이로 인해 출시 일정이 미뤄져도 괜찮다”고 설명했다. 또한, “각국 정부 및 여러 이해관계자들과 안전에 관한 협업을 지속하고 있다”고 덧붙였다.

[실리콘밸리=이덕주 특파원]

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?