기술은 AGI 코앞까지 발전했는데… ‘AI 안전팀’은 줄줄이 해체

이해인 기자 2024. 10. 26. 01:14
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈AI ‘안전 이니셔티브’ 이끈
수석 고문 사퇴… 팀은 흩어져
기술 발전 통제할 시스템 약화
OpenAI 로고 이미지. /로이터 연합뉴스

미국 바이든 행정부가 인공지능(AI) 안보 각서를 마련해 서명한 배경에는 현재의 AI 개발이 민간 주도로 이뤄지고 있는 데 대한 우려가 담겨 있다. 실제 AI 기술의 발전 속도는 당초 전문가들 예상보다 훨씬 빠르다는 평가가 많다.

25일 미국의 IT 전문 매체 더버지는 오픈AI가 챗GPT 출시 2주년에 맞춰 다음 달 차기 모델인 ‘오리온(코드명)’을 출시한다고 보도했다. 오리온은 지난해 3월 출시한 GPT-4보다 100배 이상 강력한 연상 성능을 갖춘 것으로 알려졌다. GPT-4의 개량 모델로 지난 5월 나온 GPT-4o(포오)는 반응 속도가 인간과 거의 비슷하고 수학 문제까지 풀 수 있었다. 이보다 한 차원 높은 성능의 모델이 6개월 만에 나오는 것이다. ‘오리온’은 이전과는 다른 추론 모델을 사용하는 것으로 알려졌다. 가장 앞선 AI 기능을 지녔다고 평가받는 오픈AI가 인간의 능력을 뛰어넘는 범용 인공지능(AGI)에 한발 더 다가간 것이다.

이에 반해 오픈AI에는 급격한 기술 발전의 부작용을 통제할 내부 시스템이 갈수록 약해지고 있다. 24일 미국 CNBC 등에 따르면 오픈AI에서 6년간 AI 안전 이니셔티브를 이끌던 마일스 브런디지 AGI 준비팀 수석 고문은 회사를 떠난다고 밝혔다. 그가 떠나면서 해체된 AGI 준비팀 멤버들은 다른 팀으로 재배치됐다고 그는 밝혔다.

그는 오픈AI를 떠나며 언젠가 출현하게 될 AGI에 대해 강력한 경고를 남겼다. 그는 “오픈AI나 다른 어떤 프런티어 연구소도 AGI에 준비가 되어 있지 않고 우리가 살고 있는 세상도 준비가 되어 있지 않아 보인다”며 “AI와 AGI가 인류 전체에 이롭게 쓰인다는 것은 보장할 수 없기 때문에 정부, 비영리 단체, 시민사회 등이 이를 고려해야 한다”고 말했다.

앞서 오픈AI는 지난 5월 사내 ‘수퍼얼라인먼트’팀을 해체하고 팀원들을 사내 여러 팀으로 재배치했다. 이 팀 리더였던 얀 리이크는 당시 “인간보다 똑똑한 기계를 만드는 것은 본질적으로 위험한 일”이라며 “하지만 지난 수년간 AI 안전성은 잘나가는 제품보다 뒷전으로 밀려났다”고 지적했다.

☞AGI·GAI

AGI는 ‘범용 인공지능(Artificial General Intelligence)’을 일컫는다. 사람의 명령 없이도 인간의 지능 수준을 뛰어넘어 자율적으로 판단할 수 있다. 비슷한 용어로 GAI가 있는데, 생성형 AI(Generative AI)를 말한다. 챗GPT처럼 학습한 데이터로 새로운 이미지, 음성, 텍스트 등 콘텐츠를 만들어낼 수 있다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?