'AI 대부' 힌턴 "AI로 10년 내 인간 죽이는 로봇 등장" 우려
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
인공지능(AI) 분야 대부로 꼽히는 제프리 힌턴 토론토대 명예교수가 AI의 위험성을 경고하며 "10년 내 자율적으로 인간을 죽이는 로봇 병기가 나올 것으로 본다"고 주장했다.
힌턴 교수는 생성형AI의 기반이 되는 거대언어모델(LLM)은 인간처럼 말을 이해하고 있으며, 장기적으로는 AI가 인간과 같은 감각도 가질 수 있을 것이라는 주장도 내놨다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
인간 해치는 방안 찾을수도"
LLM이 인간 말 이해한다는 주장도
인공지능(AI) 분야 대부로 꼽히는 제프리 힌턴 토론토대 명예교수가 AI의 위험성을 경고하며 “10년 내 자율적으로 인간을 죽이는 로봇 병기가 나올 것으로 본다”고 주장했다.
힌턴 교수는 10일 니혼게이자이신문 인터뷰에서 “AI에게 목표를 주면 해결책으로서 인간에게 나쁜 방법을 찾아낼지도 모른다”며 이같이 말했다. 그는 AI에게 기후변화를 막도록 지시했을 때를 가정하며 “이를 달성하기 위해 인간을 배제하는 게 필요하다고 생각하고서는 실행에 옮길 위험이 걱정된다”고 덧붙였다. 서로 다른 AI끼리 경쟁하는 과정에서 데이터센터 쟁탈전도 벌어질 수 있다고 우려했다.
힌턴 교수는 생성형AI의 기반이 되는 거대언어모델(LLM)은 인간처럼 말을 이해하고 있으며, 장기적으로는 AI가 인간과 같은 감각도 가질 수 있을 것이라는 주장도 내놨다. 일부 철학자들 사이에서는 인간이 언어를 사용하는 기능을 선천적으로 갖고 있다는 주장도 있지만, AI 개발 경험에 비춰 틀렸다고 그는 반박한다.
AI가 인간의 말을 이해하는지 판단하는 기준은 농담이다. 그는 2022년 구글이 개발한 언어모델(PaLM)에 따라 만들어진 챗봇을 상대로 농담을 설명해달라고 했을 때 챗봇은 그 농담이 왜 재미있는지 모두 설명했다고 전했다.
힌턴 교수는 토론토대 교수 시절 창업한 AI업체 ‘DNN리서치’가 2013년 구글에 인수된 뒤 구글 소속으로 연구 활동을 해 왔다. 그러던 중 지난해 4월 AI의 위험성을 알리기 위해 사표를 냈다. 이후 캐나다에 머물며 AI의 위험성을 적극적으로 경고하고 있다.
닛케이는 “힌턴 교수가 AI가 인류를 지배할 것이라고 예언하는 것은 아니지만 미래는 불확실하다는 전제에서 장기적인 위험성을 호소하고 있다”고 전했다. 그러면서 “그의 경고를 정면으로 받아들이고 논의할 필요가 있다”고 소개했다.
박준호 기자 violator@sedaily.comCopyright © 서울경제. 무단전재 및 재배포 금지.
- '나 죽일거면 쫓아와라'…'거리 흉기난동' 맨손으로 저지한 '시민 영웅', 누구길래
- 원희룡에 쫒기는 이재명, 하루 만에 ‘2찍’ 발언 사과
- '맨시티·리버풀 끝장낸다'는 맨유 새 구단주…지바겐·디펜더에 도전장 [Car톡]
- [영상]이천수 배에 드릴 대고 '가족들 어디 사는지 안다'…협박한 70대男, 당시 상황 보니
- '정부는 의사 이길 수 없다' 노환규 前의협 회장 11시간 경찰조사 받고 나와 한 말이…
- 범행에 딱 '30초' 걸렸다…인천 금은방 털고 잠적했다 열흘 만에 붙잡힌 간 큰 2인조
- ‘낭만닥터’ 이국종 '내가 있어야 할곳은 환자 옆”…환자 외면 의료파업에 ‘경종’
- '갤럭시 링 유출된 줄' 아마존에 파는 이 스마트 반지, 정체 알아보니
- 성태윤 정책실장 '진료지원 간호사 제도화…2000명 증원 변화 없어'
- 시도의사회 회장들 “정부가 의료공백 원인 제공…의대 증원 재논의”