“악당들 막을 길 없다”...AI석학들은 왜 공포를 느꼈나
AI 기술에 대한 석학들의 연이은 경고… “생성 AI 잘못된 정보 제공”
개발 중단 촉구도… “오히려 경쟁 강화될 것”
대화형 인공지능(AI) 챗GPT(ChatGPT)가 출시된 이후 또 한번 급격히 발전을 거듭하고 있는 AI기술에 대해 세계적인 석학들의 경고가 이어지고 있다. AI의 대표 기술 중 하나인 딥러닝의 창시자라고 불리는 과학자마저 기술의 무조건적인 발전보다는 ‘안전장치’가 필요하다는 의견을 낼 만큼 위험성을 강조하는 목소리가 전문가들 사이에서 확산하고 있다.
뉴욕타임스는 2일(현지 시각) AI 분야의 세계적인 석학인 제프리 힌튼(Geoffrey Hinton) 캐나다 토론토대 교수가 구글 알파벳 부사장(VP)과 엔지니어링 펠로우에서 사임한다고 전했다. 힌튼 교수는 얀 르쿤 뉴욕대 교수와 앤드류 응 스탠퍼드대 교수, 요수아 벤지오 몬트리올대 교수와 함께 AI 분야의 ‘4대 천왕’으로 평가받는 인물이다.
힌튼 교수는 딥러닝의 기반이 되는 인공신경망 연구로 현재의 기계학습 모델의 기초를 다졌다. 구글은 2013년 힌튼 교수를 영입하기 위해 그가 설립한 DNN리서치를 인수했고 10년간 함께 AI 연구를 해왔다. 힌튼 교수는 AI 연구 공로를 인정받아 2018년 컴퓨팅 분야의 노벨상이라고 불리는 튜링상을 수상했다.
힌튼 교수는 AI 기술의 위험성을 자유롭게 말하기 위해 구글을 스스로 나왔다고 밝혔다. 그는 트위터에 올린 글에서 “(뉴욕타임스의 보도는) 내가 구글을 비판하기 위해 구글을 떠났다는 것을 암시한다”며 “사실 구글에 어떤 영향을 미치는지 고려하지 않고 AI의 위험성에 대해 이야기하기 위해 떠났다”고 밝혔다.
오픈AI가 지난해 말 챗GPT를 선보이고 ‘생성 AI 시대’가 도래하면서 기업 간 AI 기술 경쟁이 심화할 것이라고 힌튼 교수는 전망했다. AI의 ‘할루시네이션(hallucination·환각)’에 대한 안전망이 확보되지 않은 상태에서 기업들의 기술 경쟁이 격화될 경우, 인터넷상에 가짜 정보가 넘칠 것이라는 분석이다.
힌튼 교수는 “생성 AI는 이미 잘못된 정보를 제공하는 도구가 됐고, 일자리에 위협이 될 수 있다”며 “특히 나쁜 행위자들이 AI를 악용하는 것을 어떻게 막을 수 있는지 알기 어렵다”고 말했다. 그러면서 “AI를 통제할 수 있는지 이해할 때까지 기술을 더 확장해야 한다고 생각하지 않는다”고 강조했다.
힌튼 교수가 AI 기술에서 우려하는 점 중 하나는 AI가 예상치 못한 행동을 배우고, 국방 분야에 적용되는 것이다. 힌튼 교수는 1980년대에 미국 카네기멜론대 컴퓨터공학과 교수로 재직했지만, 미국의 AI 학계가 국방부에서 자금 지원을 받는 것에 반대해 캐나다로 둥지를 옮겼다.
힌튼 교수는 “현재 개인과 기업이 AI에게 자체 컴퓨터 코드를 생성하게 하고, 실행하도록 하는 것은 문제가 된다”며 “AI가 진정한 자율 무기인 ‘킬러 로봇’으로 변하는 날이 두렵다”고 말했다. 이어 “AI는 기업이나 국가가 비밀리에 기술을 연구하고 있는지 알 수 있는 방법이 없고, 최선의 희망은 세계 최고의 과학자들이 기술을 제어하는 방법에 대해 협력하는 것”이라고 덧붙였다.
AI 기술의 발전 속도를 늦춰야 한다는 주장은 힌튼 교수가 처음이 아니다. 오픈AI가 대규모언어모델(LLM)의 한 버전인 GPT-4를 내놓은 이후, 1000명 이상의 미국 기업인과 석학들이 AI 기술에 대한 우려를 표하는 공개서한을 발표했다. 이들도 급격히 발전하는 AI 개발을 잠시 중단하고, 안전망을 확보해야 한다고 주장했다.
국내 전문가들은 AI 기술 발전에 대한 석학들의 걱정을 어떻게 보고 있을까. 국내 전문가들도 힌튼 교수와 마찬가지로 AI 기술의 위험성이 증대되고 있는 것에 동의했다. 다만 AI 관련 연구개발을 중단하기보다는 가이드라인을 서둘러 마련하는 것이 중요하다고 설명했다.
장병탁 서울대 컴퓨터공학부 교수는 “기술은 항상 양면성이 있지만, AI 기술은 너무 포괄적으로 사용되고 있기 때문에 사용자의 의도가 나쁠 수 있다는 우려가 항상 있다”며 “힌튼 교수도 AI 기술이 악용될 수 있는 점을 자유롭게 얘기하기 위해 구글을 퇴사한 것으로 보인다”고 말했다.
장 교수는 “공공적인 측면에서 경각심이 필요한 것은 확실하지만, AI가 현재 텍스트를 제외한 나머지 감각을 이해하는 기술은 부족한 것은 사실”이라며 “이런 상황에서 기술개발을 중단하는 것은 오히려 기업 간 경쟁을 강화시킬 수 있다”고 말했다.
유재준 울산과학기술원(UNIST) AI대학원 교수는 “기계학습의 편향 문제를 전혀 해결하지 못한 상황에서 파급효과를 고려하지 않고 기업들이 일단 서비스를 시작하면서 문제가 발생한다”며 “신약 개발을 하더라도 임상시험을 거치는데, AI는 어떤 문제가 발생하는지 확인이 안 된 상태에서 서비스를 시작하는 것”이라고 지적했다.
유 교수는 “기술 발전이 억지로 중단될 것은 아니고, 오히려 기술 경쟁을 부추기는 듯한 효과가 나타날 것이라며 “문제점들을 보완하는 연구들이 동시에 진행되면서 발전해야 한다”고 했다.
- Copyright ⓒ 조선비즈 & Chosun.com -
Copyright © 조선비즈. 무단전재 및 재배포 금지.
- [증시한담] 증권가가 전하는 후일담... “백종원 대표, 그래도 다르긴 합디다”
- ‘혁신 속 혁신’의 저주?… 中 폴더블폰 철수설 나오는 이유는
- [주간코인시황] 美 가상자산 패권 선점… 이더리움 기대되는 이유
- [당신의 생각은] 교통혼잡 1위 롯데월드타워 가는 길 ‘10차로→8차로’ 축소 논란
- 중국이 가져온 1.935㎏ 토양 샘플, 달의 비밀을 밝히다
- “GTX 못지 않은 효과”… 철도개통 수혜보는 구리·남양주
- 李 ‘대권가도’ 최대 위기… 434억 반환시 黨도 존립 기로
- 정부효율부 구인 나선 머스크 “주 80시간 근무에 무보수, 초고지능이어야”
- TSMC, 美 공장 ‘미국인 차별’로 고소 당해… 가동 전부터 파열음
- [절세의神] 판례 바뀌어 ‘경정청구’했더니… 양도세 1.6억 돌려받았다