떼돈 벌 기회 vs 인류의 안전, 당신의 선택은?…뜨거운 감자 ‘이것’ [홍키자의 빅테크]

홍성용 기자(hsygd@mk.co.kr) 입력 2023. 12. 2. 17:18 수정 2023. 12. 4. 09:45
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

2004년에 개봉한 윌 스미스 주연의 영화 ‘아이 로봇(I, ROBOT)’은 2035년 미국 시카고가 배경입니다. 당시에는 먼 미래였지만, 이제는 딱 12년밖에 남지 않았습니다.

2035년의 미래 사회는 로봇이 인간과 어울려 살아갑니다. 로봇은 집안일을 대신하거나, 무거운 물건을 드는 등 인간의 풍요로운 삶을 위한 조력자 역할을 합니다. 로봇이 구동되는 방식은 단연 인공지능(AI) 기반이죠. 이때 로봇에게는 절대복종해야 할 3원칙이 프로그래밍됩니다.
제1원칙: 로봇은 인간에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인간을 모른 척해서도 안 된다. 제2원칙: 제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종해야 한다. 제3원칙: 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 로봇 자신을 지켜야 한다.

영화는 이 3원칙을 두고 실제로 완벽한 자아를 가진 형태로 진화한 강력한 AI 슈퍼컴퓨터 ‘비키’와 인간형 로봇 ‘써니’ 사이의 대립을 다룹니다. 인공지능 로봇들끼리 싸우는 겁니다.

비키는 제1원칙인 ‘인간을 지켜야 한다’는 개념을 폭넓게 해석하는데요. “로봇은 인간보다 뛰어나다. 따라서 로봇은 인간의 행동을 통제하고 규제할 필요가 있다”고 생각합니다. 이에 따라 로봇 중심의 질서를 흐트러뜨릴 위험이 있는 인간에겐 폭력도 용납됩니다.

반면 인간형 로봇인 ‘써니’는 비키의 생각이 ‘폭력은 비인간적이라 동의할 수 없다’며 인간의 편에 섭니다.

테크업계 달군 ‘샘 올트먼’의 해임...닷새만에 복귀까지
영화 ‘아이 로봇’은 미국의 대표 SF 작가 아이작 아시모프의 이야기들에서 차용한 아이디어로 구성됐습니다.

실제로 한국에서는 아이작 아시모프가 주창했던 3원칙을 산업표준으로 쓰고 있기도 합니다.

2006년 산업자원부(현 산업통상자원부)는 ‘로봇 안전행동 3대 원칙’이란 이름으로 ‘서비스 로봇이 갖춰야 할 안전지침’을 만들었죠. 인간보호와 명령복종, 자기보호라는 3원칙의 핵심 내용이 그대로 담겨 있습니다. 이 3원칙은 철저히 로봇은 인간의 도구로서 작용해야 한다는 철학이 담겨 있습니다.

이 때 로봇에게는 인간 윤리와 비슷한 일종의 ‘로봇 윤리’가 있어야 합니다. 로봇의 자아는 인공지능 그 자체일테고, AI 윤리가 필요하다는 얘기죠.

샘 올트먼 오픈AI CEO.
최근 테크업계에서 가장 화제가 됐던 이슈인 샘 올트먼 오픈AI 최고경영자(CEO)의 회사 퇴출 스토리도 AI의 안정성에 대한 논의가 깔려있습니다. ‘과연 AI의 발전속도를 어떻게 조절해야하느냐’의 논의죠. AI의 상용화가 가장 제일 중요하다는 올트먼 CEO와 AI의 안정성에 좀 더 초점을 맞출 필요가 있다는 이사회가 대립한 겁니다.

이번 사태를 잘 모르시는 분들을 위해 간략 정리해보겠습니다.

올해의 인물로 꼽힐만한 대화형 인공지능(AI)인 ‘챗GPT’의 아버지 샘 올트먼이 하루 아침에 자신의 회사에서 축출됐다는 소식이 나왔습니다. 축출 이후 올트먼은 마이크로소프트(MS)로 자신의 팀을 이끌고 합류할 수 있음을 내비쳤고요.

결국 MS로 가서 AI 사업부를 맡나 싶었던 올트먼은 오픈AI 구성원의 90%인 700여명이 그의 복귀를 이사회에 강력히 요청하면서 압박한 끝에 다시 CEO로 복귀했습니다. 이사회는 두손을 들고 투항했습니다. 올트먼을 해임한 이사회는 개편됐죠.

‘올트먼 “AI사업 상용화 속도감 있게” VS 헬렌토너·수츠케버 “AI 안전성부터 높여야”
이번 사태를 둘러싸고 ‘올트먼이 善, 이사회는 惡’이라는 담론은 다소 편협해보입니다.

AI윤리를 두고 어떤 태도를 취하고 있는지에 따라 대립한 사태였기 때문입니다.

오픈AI의 챗GPT.
오픈AI는 먼저 비영리 목적의 AI 연구조직입니다. ’인류에게 안전하고 유익한 AI를 개발한다‘는 취지로 출범했죠. 돈되는 사업에 무게가 쏠리기보다 AI를 연구하는 단체였는데, 올트먼이 주도해 챗GPT를 내놓고 사업화 강도를 높이면서 이사회 내부 멤버와 대립이 생긴 것이죠.

뉴욕타임스에 따르면 이번 사태는 올트먼과 반올트먼의 대립이었습니다. 특히 이사회 구성원인 헬렌 토너 교수의 연구 논문에서 자신들의 챗GPT를 비판하면서 끊임없이 갈등이 일어났죠.

샘 올트먼(좌)과 헬렌 토너.
호주 출신의 컴퓨터 과학자 헬렌 토너는 AI 윤리와 안전 분야 연구로 이름이 알려져있습니다. 그는 올해 3월에 오픈AI가 내놓은 최신 대규모언어모델(LLM)인 ‘GPT-4’를 두고, 놀라운 기술적 성과인 것은 맞지만, 안전한 의사소통 도구로서 위험도를 완화하는 데 충분하지 않다고 비판했죠.

일리야 수츠케버 오픈AI 수석 과학자도 ‘AI는 경계해야한다’는 신념이 강한 사람입니다. 그는 ‘딥러닝의 창시자’로 불리는 영국 컴퓨터 과학자 제프리 힌튼의 수제자인데요. 힌튼은 “성급한 AI 기술 개발이 인류에 악영향을 미칠 수 있다”며 AI 기술의 위험성을 경고해왔습니다.

올트먼 해임 직후에 오픈AI 이사회가 자사 블로그에 “인류를 해치거나 권력을 과도하게 집중시키는 AI 또는 일반인공지능(AGI)을 활성화하는 것을 피하고, AGI를 안전하게 만드는 데 필요한 연구를 수행해야 한다”는 글을 올린 것을 보면 이번 사태의 본질이 무엇인 지 알 수 있습니다.

AGI는 AI가 인간의 개입 없이도 스스로 사고하고 학습하는 단계를 말합니다.

인간의 개입없는 인공지능의 출현...인간보다 더 똑똑해진다?
오픈AI의 창립 멤버였다가 2018년에 결별한 일론 머스크가 이번 사태의 주역인 수츠케버에게 “이 편지는 무엇을 의미하느냐”고 질문했습니다.

이 편지는 오픈AI의 연구진들이 AI ‘큐스타’의 위험성을 경고하는 내용을 담은 것이었죠. 이 편지를 받은 이사회가 올트먼을 해임시켜 챗GPT의 질주를 막아야겠다고 판단한 겁니다.

일론머스크가 자신의 X(트위터)에 “매우 걱정스럽다”고 글을 올렸다. <사진=일론머스크 X 캡쳐>
오픈AI 관계자는 로이터에 “최근 큐스타는 초등학교 수준 수학 문제를 스스로 풀었다. 이는 AGI 개발의 돌파구가 될 수 있다”라고 밝힌 것으로 전해집니다.

실제로 올트먼도 오픈AI 이사회로부터 해고 통보를 받기 하루 전인 이달 16일 아시아 태평양 경제협력체(APEC) CEO 서밋에 참가해 큐스타의 성과를 내비치기도 했죠. 그는 “오픈AI 사상 4번의 중요한 순간 중 하나가 몇 주 전 찾아왔다. 무지의 베일을 걷어내고 발견의 최전선을 앞으로 당기는 중요한 발견을 했다”고 언급했습니다.

이번 사태 이후 이사회가 전면 개편되면서 이제 올트먼에게 제동을 걸 장치가 사라졌습니다. 올트먼은 앞으로 MS와 밀월을 강화하며 구글의 AI ‘바드’ 등과 완벽한 차이를 내기 위해 달려나갈 겁니다. 앞으로 오픈AI의 미래는 어떻게 될까요? 인간보다 더 똑똑한 AI가 나오는 것일까요?

영화 ‘아이로봇’의 비키와 써니를 만나게 될 날은 영화 속 시간 배경인 2035년일까요? 더 앞당겨질까요? 오픈AI의 앞으로의 성과에 주목해야합니다. 인류의 미래가 달라질 지 모릅니다.

‘홍키자의 빅테크’는 빅테크 기업과 관련한 이슈 뒷얘기를 파헤칩니다. 지금 홍성용 기자의 기자페이지를 ‘구독’하시면 깊이가 다른 콘텐츠를 만날 수 있습니다.

Copyright© 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?