기술은 AGI 코앞까지 발전했는데… ‘AI 안전팀’은 줄줄이 해체
수석 고문 사퇴… 팀은 흩어져
기술 발전 통제할 시스템 약화
미국 바이든 행정부가 인공지능(AI) 안보 각서를 마련해 서명한 배경에는 현재의 AI 개발이 민간 주도로 이뤄지고 있는 데 대한 우려가 담겨 있다. 실제 AI 기술의 발전 속도는 당초 전문가들 예상보다 훨씬 빠르다는 평가가 많다.
25일 미국의 IT 전문 매체 더버지는 오픈AI가 챗GPT 출시 2주년에 맞춰 다음 달 차기 모델인 ‘오리온(코드명)’을 출시한다고 보도했다. 오리온은 지난해 3월 출시한 GPT-4보다 100배 이상 강력한 연상 성능을 갖춘 것으로 알려졌다. GPT-4의 개량 모델로 지난 5월 나온 GPT-4o(포오)는 반응 속도가 인간과 거의 비슷하고 수학 문제까지 풀 수 있었다. 이보다 한 차원 높은 성능의 모델이 6개월 만에 나오는 것이다. ‘오리온’은 이전과는 다른 추론 모델을 사용하는 것으로 알려졌다. 가장 앞선 AI 기능을 지녔다고 평가받는 오픈AI가 인간의 능력을 뛰어넘는 범용 인공지능(AGI)에 한발 더 다가간 것이다.
이에 반해 오픈AI에는 급격한 기술 발전의 부작용을 통제할 내부 시스템이 갈수록 약해지고 있다. 24일 미국 CNBC 등에 따르면 오픈AI에서 6년간 AI 안전 이니셔티브를 이끌던 마일스 브런디지 AGI 준비팀 수석 고문은 회사를 떠난다고 밝혔다. 그가 떠나면서 해체된 AGI 준비팀 멤버들은 다른 팀으로 재배치됐다고 그는 밝혔다.
그는 오픈AI를 떠나며 언젠가 출현하게 될 AGI에 대해 강력한 경고를 남겼다. 그는 “오픈AI나 다른 어떤 프런티어 연구소도 AGI에 준비가 되어 있지 않고 우리가 살고 있는 세상도 준비가 되어 있지 않아 보인다”며 “AI와 AGI가 인류 전체에 이롭게 쓰인다는 것은 보장할 수 없기 때문에 정부, 비영리 단체, 시민사회 등이 이를 고려해야 한다”고 말했다.
앞서 오픈AI는 지난 5월 사내 ‘수퍼얼라인먼트’팀을 해체하고 팀원들을 사내 여러 팀으로 재배치했다. 이 팀 리더였던 얀 리이크는 당시 “인간보다 똑똑한 기계를 만드는 것은 본질적으로 위험한 일”이라며 “하지만 지난 수년간 AI 안전성은 잘나가는 제품보다 뒷전으로 밀려났다”고 지적했다.
☞AGI·GAI
AGI는 ‘범용 인공지능(Artificial General Intelligence)’을 일컫는다. 사람의 명령 없이도 인간의 지능 수준을 뛰어넘어 자율적으로 판단할 수 있다. 비슷한 용어로 GAI가 있는데, 생성형 AI(Generative AI)를 말한다. 챗GPT처럼 학습한 데이터로 새로운 이미지, 음성, 텍스트 등 콘텐츠를 만들어낼 수 있다.
Copyright © 조선일보. 무단전재 및 재배포 금지.
- “국채사업에 투자해 돈 벌어줄께”... 삼촌 속여 21억 뜯어낸 50대 징역 10년
- 사위가 버린 손자 14년간 키운 할머니…집에 불나자 모든 걸 잃었다
- 구글도 'PC 작동하는 AI' 준비중...이르면 연말 공개
- “러 쿠르스크에 북한군 수천명 도착… 28일까지 최대 5000명 집결”
- Editorial: South Korea should focus on rehiring programs for skilled retirees
- 실종됐다던 아들, 백골로 집에서 발견…70대 아버지 무죄 왜?
- 뉴욕에 처음으로 한국 전통 정원 들어섰다
- ‘젊은 남성’ 표심 공략 트럼프, 세계 1위 팟캐스트 3시간 출연
- 이진호 ‘불법도박’인줄 알고도 억대 빌려줬다면...돈 못 돌려받는다?
- [이별전쟁] 모텔만 가는 남친 사귄지 2년…전화가 왔다 “우리 남편 놔주세요”