오픈AI 직원들, 새 AI 모델 안전성 우려...“인간 통제 넘어설 것”

문세영 기자 2023. 11. 24. 11:42
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

오픈AI가 새롭게 개발 중인 '큐스타(Q*)'라는 인공지능(AI) 모델이 수학 문제를 푸는 등 뛰어난 능력을 보이자 내부 직원들이 우려를 표명한 것으로 나타났다.

전문가들은 오픈AI를 비롯한 여러 회사들이 경쟁적으로 AI 모델을 개발하면서 인간 수준 혹은 인간 이상의 수준에서 다양한 작업을 수행하고 인간의 통제를 피할 수 있는 AI의 등장 시점이 앞당겨질 것을 걱정하고 있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

샘 올트먼 오픈AI CEO의 앞선 해임 조치가 새로 등장한 AI 모델과 연관이 있다는 보도가 나왔다. 위키미디어 제공.

오픈AI가 새롭게 개발 중인 ‘큐스타(Q*)’라는 인공지능(AI) 모델이 수학 문제를 푸는 등 뛰어난 능력을 보이자 내부 직원들이 우려를 표명한 것으로 나타났다. 

22일 로이터통신 보도에 따르면 일부 오픈AI 연구원들이 이사회에 AI가 인류를 위협할 수 있다는 경고의 메시지를 전달한 것으로 전해진다. 오픈AI 내부 직원들이 새로운 모델에 위협감을 느끼고 있으며 이는 샘 올트먼 CEO에 대한 앞선 해임 조치와 연관이 있다는 것이다. 

큐스타는 이전 AI 모델에서 볼 수 없었던 수학 문제를 해결하는 특징을 보인다. 일부 연구자들은 AI가 놀라운 수준의 발전 속도를 보이고 있으며, 수학 문제를 풀기 시작했다는 것은 더욱 빠른 속도로 발전이 이뤄질 것이란 의미라고 평가했다. 

전문가들은 오픈AI를 비롯한 여러 회사들이 경쟁적으로 AI 모델을 개발하면서 인간 수준 혹은 인간 이상의 수준에서 다양한 작업을 수행하고 인간의 통제를 피할 수 있는 AI의 등장 시점이 앞당겨질 것을 걱정하고 있다. 

현재 많이 사용되는 챗GPT, 미드저니 등의 AI 모델은 약인공지능에 해당한다. 인간이 시키는 일만 수행하고 인간의 통제 내에서 문제를 해결하는 AI다. 연구자들이 우려하는 부분은 강인공지능의 탄생이다. 인공일반지능(AGI)이라고도 불리는 이 AI는 인간과 같은 지성을 갖고 스스로 사고하며 발전해나간다. 아직은 이론적 개념으로 존재하지만, 최근 오픈AI의 행보 등을 바탕으로 AGI의 실현을 실질적으로 우려하는 목소리들이 나오고 있다. 

앤드류 로고이스키 영국 서리대 사람중심AI연구소 연구원은 23일 가디언을 통해 “수학을 수행하는 대형언어모델(LLM)의 등장은 AI가 완전히 새로운 분석 능력을 갖도록 만드는 주요한 진전이 이뤄졌음을 의미한다”고 말했다. 오픈AI가 AI 모델에서 약진에 약진을 거듭하는 행보를 보이고 있음을 시사하는 부분이다. 

딥러닝 선구자인 제프리 힌턴 캐나다 토론토대 컴퓨터학과 교수도 AI의 발전 속도에 우려를 표했다. 그는 네이처를 통해 “차를 최대한 빨리 달리도록 만드는 대회를 연다고 가정한다면, 이때 가장 먼저 할 일은 브레이크를 제거하는 것”이라고 말했다. AI의 발전 속도를 조절하고 제어하는 브레이크가 사라지고 있다는 의미다. 

AGI의 실현은 먼 미래의 일 같지만, 실현 가능 속도가 빨라지고 있음을 시사하는 징후들이 포착되고 있다. 힌튼 교수는 “AGI가 30년 혹은 50년 또는 100년에 걸쳐 일어날 일이라고 생각했다”며 “하지만 현재는 앞으로 5~20년 내에 일어날 것으로 추정하고 있다”고 말했다. 

현재 AI의 위험성으로 꼽히는 부분은 잘못된 정보, 편향성과 불평등 초래, 생물테러 무기 개발을 위한 활용 등이다. 장기적으로는 AI가 AGI로 발전하면서 AI 자체가 나쁜 행위자가 될 수 있다는 의견이 있다. 인류의 이익을 증진시키는 방향으로 AGI를 설계해도, AI의 판단에 따라 결과적으로 인류에게 해가 되는 행위를 벌일 수 있다는 것. 힌튼 교수는 “가령 인류의 고통의 무게가 너무 큰 것처럼 보여 더 큰 고통에 직면하도록 두는 것보다는 인류를 없애는 것이 더 나은 결정일 수 있다고 AGI가 판단할 수 있다”며 “공상과학소설처럼 들리지만 AI의 위협은 실존한다”고 말했다. 규제기관들이 AI 시장에 대해 결코 가볍게 대처해서는 안 된다는 설명이다. 

한편, 오픈AI는 챗GPT를 개발하면서 “인류의 이익을 위해 안전하고 유익한 AI를 개발하고자 하며 영리기업이지만 비영리 기업의 임무를 추구할 것"이라고 밝혔다. 하지만 업계에 따르면 오픈AI는 비영리에서 좀 더 멀어져 최근 수익 중심의 실리콘벨리 기술회사로 구조조정을 하고 있는 것으로 전해진다.  

[문세영 기자 moon09@donga.com]

Copyright © 동아사이언스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?