오픈AI '초지능AI 통제' 주장한 안전팀 해체

김리안 2024. 5. 19. 19:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.

챗GPT 개발사 오픈AI가 인공지능(AI)의 장기적 위험을 연구하는 안전팀을 사실상 해체했다.

오픈AI 공동창립자 일리야 수츠케버 등 팀을 이끈 주요 인력이 회사를 떠나자마자 안전팀을 해체했다는 소식이 나온 것이다.

팀 해체에 관해 오픈AI는 "이 팀을 독립 부서로 두지 않고 안전이라는 목표를 달성하도록 연구 전반에 걸쳐 통합하고 있는 것"이라고 해명했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

안전연구, 제품 개발 후순위로
올트먼에 반기 든 임직원 이탈
이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.

챗GPT 개발사 오픈AI가 인공지능(AI)의 장기적 위험을 연구하는 안전팀을 사실상 해체했다.

블룸버그통신은 지난 17일 소식통을 인용해 “오픈AI 슈퍼얼라인먼트팀 일부가 다른 팀으로 재배치되고 있다”고 보도했다. 지난해 7월 출범한 이 팀은 향후 개발될 초지능AI, 범용AI 등이 인간에게 해롭지 않은 방식으로 작동하도록 돕는 안전팀이다. 당시 팀 관계자는 “우리보다 훨씬 똑똑한 AI 시스템을 제어하기 위한 과학적이고 기술적인 연구에 초점을 맞추고 있다”고 밝혔다.

오픈AI 공동창립자 일리야 수츠케버 등 팀을 이끈 주요 인력이 회사를 떠나자마자 안전팀을 해체했다는 소식이 나온 것이다. 수츠케버는 지난해 11월 창업자이자 최고경영자(CEO)인 샘 올트먼 축출 사태를 주도한 인물로 14일 회사를 떠난다고 발표했다. 올트먼과 수츠케버는 AI 통제를 둘러싸고 견해차가 컸던 것으로 알려졌다. 수츠케버는 올트먼 해임 논란 당시 “올트먼이 AI 위험성에 충분한 주의를 기울이지 않은 채 사업을 구축하는 데만 집중하고 있다”고 주장했다. 수츠케버에 이어 슈퍼얼라인먼트팀을 총괄하던 또 다른 임원 얀 라이케도 회사를 떠났다.

이들이 잇따라 사임하자 올트먼 등 다른 경영진과의 갈등에 따른 것이라는 관측이 제기됐다. 이들 외에 앞서 다른 팀원들도 회사를 떠난 것으로 전해졌다. 라이케 총괄은 사임 의사를 밝히며 “오픈AI가 AI 제어 기능을 연구하기 가장 좋은 회사가 되리라고 생각했지만 오랫동안 회사의 핵심 우선순위를 놓고 경영진과 의견이 달랐다”고 토로했다.

이어 “인간보다 똑똑한 기계를 만드는 것은 본질적으로 위험한 일”이라며 “오픈AI는 인류를 대표해 엄청난 책임을 지고 있지만, 지난 몇 년간 안전 문화와 절차는 제품 뒷전으로 밀려났다”고 지적했다.

팀 해체에 관해 오픈AI는 “이 팀을 독립 부서로 두지 않고 안전이라는 목표를 달성하도록 연구 전반에 걸쳐 통합하고 있는 것”이라고 해명했다. 또 오픈AI 공동창업자인 존 슐먼이 새로운 수장이 돼 안전 연구를 맡을 것이라고 덧붙였다.

김리안 기자 knra@hankyung.com

Copyright © 한국경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?