창업 멤버 엑소더스·GPT-5 출시 연기... ‘안전성 논란’ 오픈AI, 샘 올트먼호의 미래는

변지희 기자 2024. 8. 9. 16:26
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

9일 IT매체 테크크런치에 따르면 오픈AI는 오는 10월 미국 샌프란시스코, 영국 런던, 싱가포르에서 열리는 개발자 행사에서 새 모델을 발표하지 않을 예정이다.

샘 올트먼 오픈AI 최고경영자(CEO)는 앞서 GPT-5 모델이 보일 파격적인 성능에 대해 여러 차례 언급한 바 있다.

출시 연기 가능성이 높은 또다른 이유는 끊임 없는 안전성 논란 때문에 최근 오픈AI가 미국 AI안전연구소와 손잡고 GPT-5 평가를 하기로 했기 때문이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

안전핀 사라진 오픈AI… 창업 멤버 줄줄이 퇴사
”AI 제어하려면 영구적인 안전장치 필요”
작년 6월 한국을 방문한 샘 올트먼 오픈AI CEO./소프트뱅크벤처스 제공

오픈AI가 당초 올해 내놓을 예정이었던 차세대 대규모언어모델(LLM) ‘GPT-5′ 출시를 미룰 전망이다. GPT-5 출시 전 미국 정부에 안정성, 윤리성 검증을 받기 위해 기존 LLM 업데이트와 개발자 서비스에 집중하겠다는 것이다. 이 같은 상황에서 창업 멤버 1명은 퇴사, 또 다른 1명은 장기 휴직에 들어가 오픈AI 내부에서조차 안정성과 관련한 개발 방향이 정리되지 않았다는 해석이 나온다.

9일 IT매체 테크크런치에 따르면 오픈AI는 오는 10월 미국 샌프란시스코, 영국 런던, 싱가포르에서 열리는 개발자 행사에서 새 모델을 발표하지 않을 예정이다. 대신 기존 도구의 활용성을 확장할 수 있는 애플리케이션 프로그램 인터페이스(API)와 개발자 서비스 업데이트에 집중한다는 목표다. 오픈AI는 최근 몇 달 동안 기존 모델 ‘GPT-4′의 성능을 조정하고 향상시키는 데 집중해왔다. GPT-4o 및 GPT-4o 미니의 후속 모델을 학습시키면서 도구를 개선하고 미세 조정하는 상황이다.

샘 올트먼 오픈AI 최고경영자(CEO)는 앞서 GPT-5 모델이 보일 파격적인 성능에 대해 여러 차례 언급한 바 있다. 출시 시점에 대해서는 명확히 밝히지 않았으나 업계에서는 올 연말쯤 본격 출시를 위해 개발자 행사에서 발표할 것이라고 예상했다. 이번 행사에서 GPT-5를 공개하지 않으면 출시 시기가 사실상 미뤄진 것이라는 해석이 나온다.

출시 연기 가능성이 높은 또다른 이유는 끊임 없는 안전성 논란 때문에 최근 오픈AI가 미국 AI안전연구소와 손잡고 GPT-5 평가를 하기로 했기 때문이다. GPT-5 출시 전 안전성 검증을 위해 미국 정부에 우선 공개하는 것이다. 전 세계 대중에 새 LLM을 공개하기 전 기술 윤리·안전성을 공식적으로 검증하는 셈이다. 알고리즘 편향성을 비롯한 환각현상, 사용 윤리 등을 검토할 예정이다.

하지만 오픈AI 내부에서는 안전성을 둘러싼 개발 방향과 관련된 갈등이 아직 정리되지 않은 것으로 보인다. 최근 오픈AI의 공동 창업 멤버 중 1명인 존 슐먼 AI 모델 훈련 담당은 경쟁사인 앤트로픽으로 이직한다고 밝혔다. 지난해 얀 리이크 안전팀 공동리더도 앤트로픽으로 옮긴 바 있다. 존 슐먼이 이직을 밝힌 당일 오픈AI의 핵심 인물인 그레그 브로크먼 공동 창업자 겸 회장은 올 연말까지 장기 휴직에 들어간다고 전했다. 공동 창립 멤버 11명 중 상당수가 회사를 떠나 이제는 올트먼 CEO와 보이치에흐 자렘바 2명만 남았다.

오픈AI의 안전성 논란은 지난 5월 엘렌 토너 전 이사가 “오픈AI는 AI 윤리·안전 강화보다 수익 창출에 급급했다”고 폭로하면서 불거졌다. 그는 “올트먼 CEO가 이사회 의견을 묵살하고 스타트업 투자 계획을 발표하는 등 비즈니스 확장에만 신경을 썼다”고 했다. 제품 안전성을 담당했던 ‘초정렬팀’도 해체하는 바람에 팀을 이끌었던 일리야 수츠케버 오픈AI 공동창업자 겸 최고과학자가 회사를 떠났다.

외신들은 “AI의 개발 속도와 안전성에 관한 의견 차이로 초기 멤버들이 나오고 있는 것”이라며 “그 결과 오픈AI에서 올트먼의 리더십은 오히려 공고해지고 있다”고 전했다. 올트먼은 AI의 사업화에 속도를 내는 ‘급진파’다.

업계에선 AI를 제어하기 위한 영구적인 안전장치가 필요하다는 주장이 나온다. 비즈니스인사이더에 따르면 로만 얌폴스키 루이빌대 사이버보안연구소 교수는 “미래에는 AI가 인간을 반드시 해칠 것”이라며 “개발자가 의도하지 않은 일을 성공적으로 수행하는 LLM은 하나도 없을 것”이라고 했다. 그러면서 “인공일반지능(AGI)이 등장하게 되면 문제가 더 커진다”며 “인간보다 더 똑똑한 시스템이 무엇을 할 것인지 예측이 어렵다”라고 했다.

그러면서 “AI가 인류를 멸망시킬 가능성은 인간이 향후 100년 동안 버그 없이 매우 복잡한 소프트웨어를 만들 수 있는지에 달려 있다”면서도 “AI 모델이 의도하지 않은 작업을 안전하게 수행하도록 만들 수 없기에 사고를 피할 가능성은 낮다. 인류의 운명은 AI가 모두를 죽이는 상황, AI로 인해 모두가 고통받고 차라리 죽기를 바라는 상황, 모든 인간이 목적을 완전히 상실하는 상황 등 세 가지 밖에 없을 것”이라고 덧붙였다.

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?