오픈AI ‘안전팀’ 전격 해체… 올트먼 반대파 전멸

실리콘밸리/오로라 특파원 2024. 5. 20. 06:17
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 윤리 연구조직, 1년만에 없애
올트먼 오픈AI CEO

챗GPT 등을 앞세워 전 세계 인공지능(AI) 산업을 이끌고 있는 미국의 오픈AI가 사내 ‘AI 안전팀’을 전격 해체했다. 이 팀은 고도로 발전한 AI가 사람의 의지를 배반하거나 인류를 해치지 않도록 통제하는 방법을 연구하는 조직이다. AI 기술 개발 경쟁이 치열해지면서, ‘AI 윤리’ 문제가 뒷전으로 밀려나는 상황을 상징적으로 보여주는 사건이라는 해석이 나온다.

17일 IT 전문 매체 와이어드 등 외신에 따르면 오픈AI는 사내 ‘수퍼얼라인먼트(superalignment)’팀을 해체하고, 팀원들을 사내 여러 팀으로 재배치하기 시작했다. 작년 7월 만들어진 이 조직은 오픈AI 공동 창립자 중 한 명으로 최근 회사를 떠난 일리야 수츠케버 최고과학자가 이끌었다. 수츠케버와 함께 이 팀의 공동 리더였던 얀 리이크는 지난 18일 “오픈AI에서의 모든 직위를 내려놨다”며 “우리 팀을 사랑하지만, 회사에서 AI 안전은 반짝이는(shiny) 제품에 밀려 뒷전이 됐다”고 밝혔다. 그러면서 지난 수개월 동안 자신이 이끄는 팀이 사내 우선순위에서 밀려났고, 중요한 연구 수행을 위한 지원을 확보할 수 없었다고도 토로했다. 이에 대해 올트먼 CEO는 “범용인공지능(AGI)으로 가는 길에 지침서(playbook)는 없다”며 “오픈AI는 안전하게 AI를 배포하기 위한 기초를 마련해 왔고, 모니터링 작업도 개선해 왔다. (안전팀 해체 후에도) 위험을 완화하기 위한 노력을 이어 갈 것”이라고 했다.

오픈AI 내 갈등의 배경엔 AI 기술과 윤리를 둘러싼 갈등이 있다. 오픈AI는 ‘인류에게 해롭지 않은 AI를 만들겠다’며 2015년 비영리법인으로 출범했다. 시간이 지나면서 AI 기술의 상업화를 두고 내부 의견이 갈렸다. 작년 11월 수츠케버 등이 앞장서 ‘회사가 설립 초기 철학과 다르게 상업적으로 변했다’는 이유로 샘 올트먼 최고경영자(CEO)를 축출했으나, 올트먼은 대주주인 마이크로소프트(MS)의 지원을 받아 닷새 만에 경영에 복귀했다. 이후 올트먼에 반대했던 이들이 하나둘 회사를 떠나면서, 테크 업계에선 “AI의 사업화를 적극 추진하려는 올트먼 CEO에게 안전 우려를 제기하며 제동을 걸었던 반대파들이 사실상 전멸했다”는 분석이 나온다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?