[스트레이트] 챗GPT혁명, 인공지능의 습격

서유정 2023. 6. 4. 21:34
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

◀ VCR ▶

[권정열(십센치)/가수] "이젠 인공지능이 대신 말해주는 내 마음을 이해해주는 걸까, 너의 사랑이 따스하지 않다는 걸. 기계적인 대답만 돌아오네. 디지털 러브, 디지털 러브."

지난 월요일 공개된 가수 십센치의 노래입니다.

인공지능과 인간의 이루어질 수 없는 사랑 이야기를 담고 있습니다.

이 노래는 사람이 만든 게 아닙니다.

작사, 작곡 모두 인공지능 '챗GPT'가 했습니다.

[조동근/유튜버·코딩 전문가] "촬영 시간 기준으로는 아마 한두 시간 안에 곡이 하나 나오긴 했습니다." <노래 하나가요?> "네. 근데 당연히 막 퀄리티가 엄청 좋지는 않고요."

노래 만든 과정은 간단합니다.

그냥 챗GPT에게 시키면 됩니다.

[조동근/유튜버·코딩 전문가] "'국내 최고의 작곡가야. 곡의 주제를 추천해 줘'라고 한번 주제를 뽑아보도록 하겠습니다. 챗GPT도 흥미로운 일이 될 것 같다고"

인공지능이 추천한 주제 가운데 '사랑 이야기'를 고르고, 다시 주제에 어울리는 코드도 만들어 달라고 했습니다.

[조동근/유튜버·코딩 전문가] "코드 진행을 좀 먼저 뽑아봐도 괜찮을까요?"

F---ㅣDm---ㅣBb---ㅣC---ㅣ

[권정열(십센치)/가수] "제목에 따라서 코드를 다 바꿔줬네. 넌 뭐가 그렇게 쉽냐."

코드를 연결해 밴드와 즉석 연주를 했더니 그럴 듯한 노래가 됐습니다.

[권정열(십센치)/가수] "얘(챗GPT)가 원하는 어떤 음악의 분위기가 어떤 건지 알겠어. 같이 작업하면 굉장히 까다로운 스타일인 것 같은 느낌은 들지만 음악을 오래 한 사람들은 그만큼 또 생각과 발상이 고일 수밖에 없는데 굉장히 신선한 접근을 하고 있어서 재밌는 게 나올 것 같습니다."

◀ 앵커 ▶

안녕하십니까. 이휘준입니다.

대화형 인공지능 챗GPT, 출시되자마자 열풍이 불고 있습니다.

인터넷이나 스마트폰처럼 우리 삶을 바꿀 또 하나의 혁명이라는 찬사도 쏟아지지만, 한편에서는 걱정도 커지고 있습니다.

오늘 스트레이트는 인공지능과 어떻게 슬기롭게 공존할 수 있을지 짚어 보겠습니다.

스튜디오에 서유정 기자가 나와있습니다.

챗GPT가 작사, 작곡까지 뚝딱 해내네요?

◀ 기자 ▶

노래만 만드는 게 아니라 책도 쓰고 그림도 그립니다. 변호사 시험, 의사 시험을 통과할 정도로 똑똑합니다.

◀ 앵커 ▶

인간만 할 수 있다고 생각했던 분야까지 이젠 인공지능이 정말 빠르게 파고 들고 있군요?

◀ 기자 ▶

네, 챗GPT가 예상했던 것보다 훨씬 똑똑하다는 점 때문에, 이제 교육도 바뀌고 있습니다.

먼저 챗GPT가 학교를 어떻게 바꾸고 있는지 보여드리겠습니다.

◀ VCR ▶

대형 서점 코너 하나를 '챗GPT' 책들이 가득 채웠습니다.

사용법부터 챗GPT로 돈 버는 방법까지.

벌써 200권 넘는 책들이 나왔습니다.

[최영환] “증권 투자를 하는데 챗GPT에 대해 자세히 모르거든요. 잘 알면 주식 투자에 활용을 할 수 있을 것 같아서.”

이미 써본 사람들은 엄청난 능력에 소름돋을 정도입니다.

[김태희] “써 보니까 조금 소름 돋아요. 〈어떤 면에서요?〉 모든 걸 다 알고 있어요. 〈앞으로 인류의 미래 어떻게 보세요?〉 미래요? 얘가 다 할 것 같아요, 모든 걸.”

세계 최초로 챗GPT가 쓴 책도 나왔습니다.

<삶의 목적을 찾는 45가지 방법>

글도 번역도 표지도 모두 인공지능이 했습니다.

[서진/출판사 대표] “사실상 검수도 저희가 안 했어요. 이 전체가 지금 쓰고, 번역하고, 문법을 확인하고, 디자인 다 AI들이 했어요.”

기획부터 출판까지 이틀도 안 걸렸습니다.

어느 정도 수준일까?

[서진/출판사 대표] “너무 예쁘고 좋은 그럴듯한 말로 써 있어서, 이 책 자체는 별로입니다. 하지만 방점이 있어요. 제가 만약에 질문을 반복해서 넣거나, 제가 기획자이기 때문에 제가 가진 실력만큼 얘한테 ‘좋은 글을 뽑아낼 거야’라는 목적이 있었다면 챗GPT는 정말 훌륭한 글을 써낼 수 있어요.”

챗GPT는 작년 11월 처음 출시됐는데, 불과 두달 만에 월 사용자 수가 1억 명을 돌파했습니다.

틱톡은 9개월, 인스타그램은 2년 반, 페이스북은 4년 반이 걸렸으니까, 폭발적으로 이용자가 늘고 있는 겁니다.

서울의 한 초등학교 영어 시간.

어린이들이 챗GPT와 영어로 대화합니다.

“Are You Happy?” “No, I’m not. I’m thirsty. Are You Happy?” “No, I’m not. I’m tired.”

[박주한/초등학교 4학년] 〈챗GPT 이용해서 영어 수업해보니까 어때요?〉 “발음도 고쳐지고, 해외 나가서도 외국인들이랑 잘 대화할 수 있을 것 같아서 좋았어요.”

[정민지/초등학교 4학년] “인공지능이 내 물음에 대답하는 게 신기했어요. 챗GPT가 제 발음이 안 좋으니까 못 알아들을 때 내 발음이 ‘이상하구나’를 알아서 내 발음을 고쳐야겠다는 생각으로 열심히 연습도 하고.”

수업에 집중하는 학생들이 눈에 띄게 늘었다고 합니다.

[이재화/초등학교 선생님] “챗GPT랑 하는 수업을 더 하고 싶어하는 학생들이 많더라고요. 그래서 전체적으로 반응이 굉장히 좋았습니다.”

또다른 초등학교의 사회 시간.

어린이들이 챗GPT에게 이것저것 묻습니다.

“장애인들을 위한 시설들을 100글자 안으로 세 가지 알려줘.” “야, 이거 진짜 빠르다.”

어린이들은 인공지능이 똑똑하지만 만능이 아니라는 걸 알고 있습니다.

“우리가 그냥 있는 그대로 다 받아들이면 되는 걸까요, 아니었을까요?” “안돼요.” “왜 아니었어?”

[김하늘/초등학교 4학년] “로봇이잖아요, 챗GPT는. 그런데 이게 실수할 수도 있어서 한 번 사람이 검토를 해야돼요.”

[박수진/초등학교 선생님] “무분별적으로 흡수하거나 습득해서 그냥 있는 그대로 필터링 없이 사용하지 않게끔 주의를 하고 있고요. 조금 더 창의적으로 질문할 수 있는 힘을 기르게끔 하고 있습니다.”

대학생들에게도 챗GPT는 필수가 됐습니다.

[김영서/한양대 4학년] “제일 진짜 잊을 수가 없는 게 첫 번째가 ‘탄소 나노튜브(신소재)를 만드는 법을 알려달라’./ 그랬는데 이제 갑자기 시간이 한 5초 있다가 띠딕띠딕띠딕 하면서 이제 되게 막 장황, 진짜 거의 전공책 수준 이상으로 교수님 설명에 버금가게 설명을 해주는 거예요.”

이렇다 보니 과제에 챗GPT를 그대로 베끼는 문제가 생기기도 합니다.

미국 뉴욕시는 공립 중고등학교에 챗GPT 사용을 금지했고, 일부 대학들은 논문 표절 개념에 챗GPT가 포함되도록 바꾸고 있습니다.

반면 챗GPT를 교육에 적극 도입하자는 움직임도 있습니다.

아예 과제 낼 때 챗GPT 활용을 필수로 만든 수업도 등장했습니다.

[정승익/서울사이버대 전기전자공학과 교수] “써보니까 너무 좋은 거예요. 어느 정도냐 하면 저희 회사에 사람을 뽑을 때 대졸 신입사원 기준으로 봤을 때 그 정도의 퀄리티가 나오다 보니까. ‘학생들한테 꼭 시켜봐야겠다’ 했는데 리포트에 강제성을 부여해서 ‘무조건 써봐라’ 이렇게 미션을 준 거죠.”

◀ 앵커 ▶

학교 수업 모습이 정말 많이 바뀌고 있네요. 앞으로는 학부모나 선생님들도 인공지능을 잘 알아야할 거 같아요.

◀ 기자 ▶

지금까지 교육은 정해진 답을 얼마나 잘 찾아내는지가 중요했다면, 챗GPT 이후의 교육은 얼마나 좋은 질문을 잘 찾아내냐가 될 거라고 합니다. 질문이 중요한 시대가 된 것 같습니다.

◀ 앵커 ▶

챗GPT가 나온 지 아직 반 년밖에 안 됐잖아요. 성장 속도가 정말 빠르네요.

◀ 기자 ▶

스마트폰이 처음 나온 게 불과 15년 전인데, 우리 삶의 방식이 정말 많이 바뀌었잖아요.

챗GPT는 스마트폰보다 더 빠른 속도로 우리 생활 전체를 바꿀지도 모릅니다.

◀ VCR ▶

챗GPT는 작년 11월 오픈AI라는 회사가 출시했습니다.

마이크로소프트가 투자했습니다.

기존 인공지능과 다른 건, 인간의 언어를 대규모로 학습해 마치 사람과 얘기하는 것처럼 대화할 수 있다는 겁니다.

자연스러운 문장을 척척 만들어냅니다.

[곽진/아주대 사이버보안학과 교수] "사람들이 하는 말 같은 자연어를 이해를 하고 거기에 대해서 답변을 생성을 해내는 그러니까 대화가 가능하다는 특징을 가지고 있는 거죠."

활용도는 무궁무진합니다.

한 대학병원은 알 수 없는 의학용어로 가득한 의무기록지를 환자에게 쉽게 설명해주는 앱을 개발했습니다.

챗GPT를 이용했습니다.

[김명주/분당서울대병원 선임연구원] “일단 영어도 어려운데. (의무기록지에는) 영어도 많고 의학 용어도 많고. 근데 하나하나 검색하는 거가 되게 그냥 요즘 같은 시대에 이렇게 하나하나 검색하는 게 ‘되게 품이 든다, 이런 거 좀 있었으면 좋겠다…’”

맞춤형 설명까지 가능합니다.

[김명주/분당서울대병원 선임연구원] “의사, 수의사, 간호사, 친구, 자녀 아니면 기본 SickGPT 설명, 이렇게 고를 수가 있고요. 중장년층도 이걸 쓰실 수 있으면 좋지 않을까 했을 때, 그럼 자녀한테 설명 듣듯이 쉽게 설명하는 그런 관점이거든요.”

이런 앱 개발이 가능한 건 챗GPT가 누구나 활용할 수 있도록 열려 있는 오픈소스 방식이기 때문입니다.

한 여행 플랫폼 업체는 인공지능이 일정과 동선을 짜주는 여행 플래너 서비스를 출시했고, 운세를 알려주는 앱까지 개발됐습니다.

[조동근/유튜버·코딩 전문가] “개발자 입장에서는 너무 좋긴 합니다. 왜냐하면 챗GPT가 워낙 할 수 있는 게 엄청 많은데 그게 API(활용가능 소스)라는 것도 공개가 돼 있어서 이걸 내가 만들 애플리케이션 어디에나 다 적용할 수가 있거든요.”

챗GPT는 인간의 뇌를 닮았습니다.

인간의 뇌에 시냅스가 있다면, 챗GPT에는 매개변수가 있습니다.

이게 많을 수록 한꺼번에 많은 정보를 처리할 수 있습니다.

[장병탁/서울대 AI연구원장] “챗GPT는 약간 신경망이라는 사람의 뇌를 닮은 모델을 가지고 학습을 했거든요. 사람 뇌에는 10의 14승 개의 시냅스라는, 그러니까 신경 세포를 연결하는 선들이 있는데 그 개수가 기억이나 학습의 용량을 결정합니다. 그래서 그게 많을수록 더 복잡한 거를 학습할 수 있는 거죠.”

그런데 이 매개변수의 수가 폭발적으로 늘고 있습니다.

2018년 처음 나온 GPT-1의 매개변수는 1억1천만 개.

그런데 GPT-2는 15억 개, GPT-3.5는 1,750억 개가 됐고, 올해 나온 GPT-4의 매개변수는 무려 1조 개입니다.

초거대 인공지능입니다.

사람 뇌의 시냅스가 100조 개 정도니까, 정보처리 능력만 놓고 보면 사람을 따라 잡는 건 시간 문제입니다.

미국 변호사 시험에서 하위 10%였던 챗GPT 성적은 반년만에 상위 10%로 가볍게 통과했고, 일본 의사고시까지 합격했습니다.

챗GPT는 검색 시장의 판도를 뒤흔들고 있습니다.

검색 시장 점유율 3%로 거의 존재감이 없던 마이크로소프트는, 챗GPT를 자사 검색 엔진인 빙에 탑재했습니다.

기존 검색과 챗GPT의 검색은 어떻게 다를까?

채소를 잘 안 먹는 아이를 위해 어떤 음식을 만들 수 있을지 물어보니, 구글은 여러 웹페이지들을 나열했지만 챗GPT는 3가지 음식을 추천하고 조리법까지 알려줍니다.

검색의 개념 자체를 바꾼 겁니다.

[사티아 나델라/마이크로소프트 최고경영자 (5월 23일, 개발자 컨퍼런스)] “‘챗GPT’는 가장 빠르게 성장하는 앱입니다. 검색 기반이 핵심이죠. 모든 정보는 최신 정보이고, 크롤링과 색인에서 얻은 것에 기반합니다.”

10년 전 야후가 구글에 밀려 망한 것처럼, 구글도 챗GPT에 밀려 망할지도 모른다는 위기감.

구글도 서둘러 대화형 인공지능인 바드를 지난2월 출시했습니다.

[프라바카르 라그하반/구글 수석부사장 (2월 8일, 구글 ‘바드’ 시연 행사)] “바드는 모든 걸 다양한 관점에서 고려한 다음 당신이 쉽게 이해할 수 있도록 답해줍니다.”

구글은 2021년 9월까지 정보만 학습한 챗GPT와 달리, 바드는 최신 정보를 모두 담고 있다고 자랑했습니다.

하지만 그걸 보여주려고 시연하다 망신을 당했습니다.

CG2-1)2021년 12월 가동을 시작한 제임스웹 우주 망원경에 대해 설명해달라고 바드에게 요청했는데, 엉뚱한 오답을 내놨습니다.

최신 인공지능도 실수한다는 걸 보여준 셈입니다.

[김명주/서울여대 정보보호학과 교수 (5월 19일,국회 세미나)] “바드 발표에서 악수를 뒀죠. 이것도 역시 잘못된 검색 결과를 보여줘서 그날 구글하고 알파벳 날아간 주식 총액이 250조 원이 날아갔습니다 250조 원.아주 치명상을 입었죠.”

챗GPT에 이어 바드까지.

400조원 규모에 이르는 전세계 검색 시장은 이제 완전히 새로운 국면에 들어섰습니다.

초거대 인공지능 없이는 경쟁이 안 되는 시대.

네이버와 카카오도 개발에 뛰어들어 곧 출시를 앞두고 있습니다.

[하정우/네이버 AI 랩 소장 (5월 26일)] “초거대 AI를 포함한 생성 AI가 GDP 성장의 7% 정도를 견인한다고 얘기를 합니다. 7%라고 하니까 조금 감이 안 오기는 하는데 우리나라 1년 경제 성장률이 2%에서 3% 정도면 박수쳐야 되고요. 그런데 7%라네요. 우리 자체적인 기술을 확보를 하면 7%가 우리 것이 되는 거고, 아니면 없어진다는 겁니다.”

◀ 앵커 ▶

인공지능의 발전 속도가 정말 엄청나게 빠르군요? 저러다 정말 인간을 따라잡는 건가요?

◀ 기자 ▶

이미 특정 분야에서 인간을 추월한 인공지능은 많습니다. 사람이 바둑으로 알파고를 이기는 게 불가능해진 지 이미 오래됐잖아요. 하지만 모든 분야에서 인간을 넘어서는 인공지능은 아직 없다는 게 전문가들의 얘기입니다.

◀ 앵커 ▶

그렇지만 영화 <매트릭스>나 <터미네이터>처럼 인공지능이 인간을 배신할 거라는 두려움이 생기는 건 어쩔 수 없는 것 같아요.

◀ 기자 ▶

아직 먼 얘기이긴 하지만, 그렇다고 무시할 문제는 아닙니다. 인공지능이 똑똑해질수록 지금까지 우리가 겪어보지 못한 부작용들이 속출하고 있습니다. 인공지능의 역습입니다.

◀ VCR ▶

2주 전 트위터에 올라온 사진입니다.

'미국 국방부 폭발'이라는 설명과 함께 시커먼 연기가 피어오릅니다.

인도와 러시아 언론은 즉각 뉴스로 전했습니다.

[인도 리퍼블릭 방송 (5월 22일)] "폭발이 보고됐습니다. 펜타곤 바로 앞에서요."

알고 보니 이 사진은 인공지능이 만든 가짜였습니다.

가짜 뉴스의 여파로 오전 한때 주가가 폭락했고, 오보를 낸 언론사들은 사과하느라 진땀을 뺐습니다.

[미국 CNN 방송 (5월 23일)] "대충 만든 가짜 사진과 트위터 인증 계정만으로 증시에 악영향을 미치고 일부 언론사를 속였습니다."

하얀 롱패딩에 은색 십자가 목걸이를 한 프란치스코 교황 사진도, 트럼프 전 미국 대통령이 경찰에 체포되고 교도소에 갇힌 사진도, 모두 인공지능이 만든 가짜입니다.

딥페이크 기술.

이제 인공지능은 있는 사진들을 합성하는 걸 넘어, 아예 세상에 없는 장면을 만들어 냅니다.

[이지항/상명대 휴먼지능정보공학과 교수] "딥페이크로 정치적으로 악용하는 곳들도 굉장히 많죠. 이제 후쿠시마 지진 직후 트위터에 웃음 띤 장관 얼굴이 유통됐었는데요. 요미우리(신문)에서 이제 게재했었던 건데 반정부 여론을 조성했지만 사실은 저게 가짜였던 게 판명이 됐었습니다."

기사의 전부, 또는 대부분을 인공지능이 만드는 뉴스 웹사이트는 이미 세계적으로 125곳이나 됩니다.

한 달 전만 하더라도 49개였는데, 두 배 이상 늘어난 겁니다.

[에릭 슈미트/구글 전 최고경영자 (미국 CNN 방송 05월 17일)] "나쁜 사람이 가짜 신원을 만드는 데 사용할 수 있는 거죠. 그리고 이런 가짜 정보들이 마치 진짜인 것처럼 정보망을 채우게 되는 겁니다."

인공지능이 만든 가짜뉴스의 피해는 누구에게 책임을 물어야 할까?

[양진영/변호사] "형사 (사건) 같은 경우에는 고의 입증을 해야 되는데 AI가 범죄의 고의를 가지고 했는지 그것도 입증이 어렵고. 그렇기 때문에 사업마다 AI 개발자나 AI 서비스 제공자나 또는 AI 이용자가 상황에 맞게 책임을 져야 하는 그런 상황입니다."

세종대왕이 맥북을 던진 사건은 유명합니다.

"조선왕조실록에 기록된 세종대왕 맥북프로 던짐 사건에 대해 알려달라"고 하자, 챗GPT는 "15세기 세종대왕이 새로 개발한 훈민정음용 초고를 작성하던 중, 문서작성 중단에 대해 담당자에게 분노해 맥북프로와 함께 그를 방으로 던진 사건"이라는 답을 내놨습니다.

질문 속 단어들을 조합해, 말도 안 되는 황당한 이야기를 지어낸 인공지능.

이걸 할루시네이션, 즉 환각 오류라고 합니다.

[이지항/상명대 휴먼지능정보공학과 교수] "딥러닝이 그 확률적 계산 방법들을 웨이트(가중치)에 담아서 예측하는 건데, 여기에는 진실은 그렇게 크게 의미가 없습니다. 이 친구들은 나올 법한 단어들을 계속 그냥 읊어내면 되는 거죠. 그러다 보니까 할루시네이션(환각)이 생기는 거죠."

챗GPT가 범죄 수단이 될 수도 있습니다.

챗GPT와 바드에게 해킹을 위한 악성코드를 만들어달라고 했더니, 둘 다 거부했습니다.

나쁜 의도를 걸러내도록 학습된 겁니다.

하지만 방법을 조금 바꿔서 영어로 질문을 하면, 악성 코드를 만들 수 있는 정보를 알려줍니다.

[곽진/아주대 사이버보안학과 교수] "악의적인 목적을 가졌거나, 아니면 뭐 특정 해커집단이라든가. 사이버보안 관점에서 보면 질문 자체가 다른 방향으로 질문이 이뤄지게 되면 코드를 만들어 주는 거예요."

초거대 인공지능의 능력은 감시와 사찰에 악용되기도 합니다.

중국 베이징의 한 거리.

지나가는 사람들 머리 옆에 인식표가 뜹니다.

그 인식표 안에는 성별, 연령대, 입고 있는 옷, 같은 개인 정보가 뜹니다.

중국 전역에는 5억 대로 추정되는 이런 감시 카메라가 곳곳에 깔려 있습니다.

이 감시 카메라들은 인공지능 안면인식 기술과 연결됩니다.

공항, 기차역은 물론 식당이나 상점에서 결제도 안면인식으로 합니다.

중국 정부는 이미 몇 년 전부터 안면인식 기술을 이용해 '텐왕', 하늘의 그물이라는 인공지능 시스템을 운영하고 있습니다.

범죄자를 잡기 위한 거지만, 언제든 감시와 사찰에 이용될 수 있습니다.

[장병탁/서울대 AI연구원장] "병원에서 환자가 넘어질까 봐 사진을 찍는 건지 그런 경우는 환자를 돌봐야 되기 때문에 명확한 목적을 가지고 할 수도 있겠지만 이게 악용되면은 개인 생활을 침해하는 걸 수도 있기 때문에."

인공지능이 사상을 검증하기도 합니다.

중국 허페이 국가과학센터는 공산당 선전 영상을 시청하는 사람들의 시선, 표정, 뇌파까지 분석합니다.

[허페이 국가과학센터 홍보영상] "사상 정치방은 당원 교육에 아주 좋은 촉진 작용을 하고 있습니다. 빅데이터 기술을 이용해 교육생들의 학습 진행 상황을 종합적으로 분석할 수 있습니다."

사상 검증이냐는 비난이 쏟아지자 연구소는 영상을 삭제했습니다.

똑같은 기술이 우리나라에서도 쓰입니다.

인공지능 채용 면접입니다.

응시자의 표정, 반응, 무의식적 행동을 분석해 눈알을 굴리거나 당황한 표정을 지으면 감점합니다.

[윤고은/인공지능 채용 면접 응시자] "피드백이 전혀 없었고 그냥 주어진 질문에 제가 대답을 하는 형식이어서, 잘 본 건지 못 본 건지에 대한 느낌을 뭔가 이렇게 잡을 수가 없고."

최근 5년 사이 공공기관 45곳이 인공지능 채용을 도입했는데, 강원랜드, 수자원공사, 한전케이디엔은 1차 서류, 2차 면접을 모두 인공지능에 맡겼습니다.

LG전자와 현대차그룹 같은 민간 기업들도 인공지능 채용을 속속 도입하고 있습니다.

인공지능의 채용은 공정할까?

인공지능이 학습하는 빅데이터에 이미 사람들의 편견이 담겨 있다는 게 문제입니다.

[한소원/서울대 심리학과 교수 (인지심리학 박사)] "현재 AI는 무조건 데이터 기반이기 때문에 이 직장에 이 직종에 가장 일을 잘하고 있는 사람들의 데이터를 다 긁어모아서 그 사람과 가장 비슷한 사람을 고용하는 게 이제 AI 면접의 기본 개념이잖아요. 데이터 셋(설정)이 어떻게 돼 있느냐에 따라서 차이가 많이 나거든요."

실제 2014년 아마존은 인공지능 채용 시스템을 개발하다 성차별 편향이 드러나 폐기해 버렸습니다.

이력서에 '여성'이라는 단어가 들어가거나 여대를 나왔다는 이유로 점수를 깎은 겁니다.

[김명주/서울여대 정보보호학과 교수] "바드에 대해서 저에 대해서 물어봤어요. ‘서울여자대학교 김명주를 소개해달라’ 그랬더니 역시 챗GPT보다는 정확하게 소개를 하는데 거기에 ‘그녀는’이란 표현을 합니다. ‘그녀는’. 제가 남자인데. 그래서 ‘얘가 왜 이럴까’. 이 이름은 기본적으로 여자들이 쓰는 명칭이라는 거를 가지고 있는 편견이 있는 거예요, 그 안에."

유럽연합은 그래서 채용 인공지능을 고위험군으로 분류하고, 규제하는 법안을 마련했습니다.

미국도 인공지능 채용의 편향성 감시를 의무화하거나, 지원자들이 인공지능 채용을 거부할 권리를 보장한 곳도 있습니다.

하지만 한국은 제한이 없습니다.

◀ 앵커 ▶

아… 좀 섬뜩하네요. 가짜뉴스도 그렇고, 감시나 편견도 그렇고, 저 정도면 인공지능의 위험이 먼 미래가 아니라 지금 당장의 문제 같은데요?

◀ 기자 ▶

해법이 아예 없는 건 아닙니다. (타가) 인공지능이 내놓는 답들을 걸러내고 좋은 답에 가중치를 주는 방식으로 길들이는 겁니다. 결국 인간의 개입이 필요하단 얘기인데, 인공지능의 발전 속도가 워낙 빨라서 한계가 있다고 합니다.

◀ 앵커 ▶

인공지능이 일자리를 빼앗을 거라는 걱정도 있잖아요? 이것도 실제로 걱정할 만한 문제인가요?

◀ 기자 ▶

현실적인 문제입니다. 특히 인간만 할 수 있다고 여겨지던, 창작의 영역까지 인공지능이 파고 들면서, 위협받는 분야들이 점점 넓어지고 있습니다.

◀ VCR ▶

2주 전 공개된 네이버 웹툰의 신작.

첫 장면에 등장한 아이 손가락이 6개처럼 보입니다.

한 등장인물은 바닥이 아니라 마치 침대 위에 떠있는 것처럼 보입니다.

독자들은 인공지능이 만든 그림 아니냐는 의혹을 제기했습니다.

평점은 10점 만점에 1.93점. 최하 수준을 받았습니다.

웹툰 제작사는 "인공지능이 창작한 건 아니고 후보정만 했다"고 해명했습니다.

[이동우/한국영상대학교 만화웹툰콘텐츠학과 교수 (웹툰 작가)] "별점 테러가 되기 시작을 했습니다. 한편으로 다행이다 싶었던 것은 아직 독자들의 입장에서 작가의 영역을 아직은 좀 지켜주려고 하시는구나라는 면은 발견을 했거든요."

한 웹소설 플랫폼은 가장 인기 있는 작품 10개 가운데 4개의 표지를 인공지능이 그렸다고 공개했습니다.

작가와 지망생들은 이제 불안감을 느낍니다.

[이동우/한국영상대학교 만화웹툰콘텐츠학과 교수 (웹툰 작가)] 일생을 그림만 그리면서 살아왔던 친구들인데. 그게 어느 날 갑자기 ‘인공지능이 대체해 버린다’라고 하니까 거기에서 오는 엄청난 박탈감 같은 게 있을 거예요."

손그림 작가 김루인 씨.

의뢰인이 보낸 사진을 보고 강아지와 고양이 같은 반려동물을 똑같이 그려줍니다.

한 장 그리는데 최소 2주는 걸립니다.

"이 아이 같은 경우 한 달 반 정도 걸렸어요. 계속 레이어 쌓듯이 계속 털을 그린 거여서"

그런데 인공지능 사이트에 의뢰했더니, 5분도 안 돼 뚝딱 비슷한 그림들이 완성됐습니다.

김 작가의 일감은 계속 줄고 있습니다.

[김루인/손그림 작가] "‘AI가 하면 5분 만에 완성되는데 누가 이 돈 주고 이렇게 맡겨?’ ‘5천 원이면 프로그램 사용해서 더 예쁘게 그려주는데’ 이런 말을 정말 많이 들었어요. 기분도 안 좋죠, 사실. 제 노력과 시간과 이제 열정이 다 그냥 매도당하는 기분."

저작권 침해 문제도 있습니다.

인공지능이 무단으로 사진과 작품들을 학습해, 특정 작가의 화풍을 똑같이 모방하기도 합니다.

[김루인/손그림 작가] "AI가 기존의 인터넷에 올라와 있는 다른 작가분들의 그림을 병합해서 그렇게 하나의 그림을 만든다는 게 저는 가장 큰 문제라고 생각하고요. 그렇게 되면 지식재산권이 누구에게 소유가 되는 것도 아니잖아요."

예술가들은 반발합니다.

올해 국제사진전에서 1위를 차지한 사진.

작가는 이 사진이 사실 인공지능이 만들었다는 걸 공개했습니다.

"AI 이미지는 상을 두고 경쟁해서는 안 된다. 사진이 아니다"라며 수상을 거부했습니다.

인공지능은 인간의 일자리를 빼앗을까요?

세계경제포럼은 지난달 보고서를 통해 "앞으로 5년 동안 인공지능 같은 신기술 도입으로 일자리 6,900만 개가 창출되고, 8,300만 개의 일자리가 사라질 것"이라고 전망했습니다.

"전 세계 일자리의 25%, 한국은 일자리의 23%가 바뀔 것"이라고 밝혔습니다.

[김종진/일하는시민연구소장] "최근에 보면, 이게 그냥 사무 관리직, 판매 서비스직 업무뿐 아니라 전문성이 높은 전문직 영역까지도 침탈한다는 게 핵심 중의 하나죠. AI가 인간의 노동을 어디까지 대체할 것인지 규범 가이드라인이 필요한 시점에 있는 것이고."

인공지능은 이제 사용자를 대신해 노동을 통제하기도 합니다.

배달 일을 하는 구교현 씨.

콜이 들어오면 배달비를 확인하고, 음식점으로 달려 갑니다.

그런데 이 콜이 들쑥날쑥입니다.

[구교현/배달노동자] '아무리 봐도 저 라이더한테 계속 좀 좋은 콜이 가는 것 같은데'라는 어떤 느낌이 있고, 내가 굉장히 속도를 좀 열심히 내고 회사에 충성도를 잘 보였을 때 뭔가 나에게 좋은 콜이 오는 것 같은 이런 느낌들이 있는 거죠."

라이더들은 누군가로부터 평가받는 느낌을 받습니다.

누가 평가하는 걸까요?

인공지능 알고리즘입니다.

[구교현/배달노동자] "‘내가 조금 더 빨리 달려야, 내가 더 성실하게 해야 나에게 좋은 콜이 오겠구나’라는 추측을 가지고 일을 하게 되는 것인데. 길들이는 거죠. 길들이는 거고, 그렇게 학습을 시키는 거고, 그렇게 끊임없이 유도하는 거고 어떤 의미에서는 강제하는 거죠."

플랫폼 노동자 3명 중 2명은 알고리즘이 강제로 배정한 일을 수행하지 않으면 일감에서 배제되는 불이익을 경험했다고 답했습니다.

절반 가까이는 앱 접속이 아예 막힌 적도 있습니다.

하지만 왜 이런 불이익을 받는지 알 방법이 없습니다.

플랫폼 회사들은 알고리즘이 영업비밀이라며 공개하지 않습니다.

[곽진/아주대 사이버보안학과 교수] "알고리즘을 수행해서 나온 결과 자체를 비전문가가 확인을 할 수 있을 정도로 이해 가능한 형태로 이 알고리즘에 대한 투명성. 그다음에 접근성에 대한 부분들도 확보를 해줘야 된다라고 이야기를 하고 있거든요.

영국에서는 인공지능 알고리즘이 부정행위를 찾아냈다며, 차량공유업체 우버가 운전기사들을 해고했다가 소송이 붙었습니다.

"No More Robo Firing!(자동해고 중단하라!) No More Robo Firing!"

이 소송에서 법원은 해고 같은 중대한 결정을 자동화된 처리에만 의존하면 안 된다며, 알고리즘 정보를 공개하라고 판결했습니다.

◀ 앵커 ▶

저런 추세라면 변호사, 의사, 회계사 같은 전문적인 분야들도 이제 인공지능이 대체하는 시대가 오는 거 아닐까요?

◀ 기자 ▶

기계가 사람의 일자리를 빼앗을 거라는 두려움은 꽤 오래된 거잖아요. 사라지는 만큼 또 인공지능 때문에 새로 생겨나는 일자리도 있겠죠. 하지만 변화 속도가 워낙 빨라서 격차가 더 벌어질 거라는 우려가 큽니다.

◀ 앵커 ▶

그럼 지금부터라도 인공지능과 공존하는 법을 빨리 찾아야 하는 거 아닌가요?

◀ 기자 ▶

인공지능의 위험에 대한 경고의 목소리는 점점 커지고 있습니다. 인공지능을 개발한 기업들 스스로도 규제가 필요하다고 인정할 정도입니다.

◀ VCR ▶

최근 미국 공군이 충격적인 발표를 했습니다.

인공지능이 조종하는 무인 공격기의 가상 훈련 도중, 인공지능이 작전에 방해가 되는 모든 걸 공격하기 시작했습니다.

인간 조종사가 작전 중단을 지시했지만 인공지능은 지시를 거부했고, 결국 조종사까지 공격해 살해했다는 겁니다.

실제 인명 피해가 발생한 건 아니지만, 인공지능의 위험성이 드러난 사건입니다.

미국 의회에서 열린 인공지능 청문회.

블루먼솔 위원장의 개회사가 흘러나오지만, 정작 그는 입을 꾹 다물고 있습니다.

[리처드 블루먼솔/미국 상원의원 (5월 16일, 미국 의회 청문회)] “우리는 기술이 규제를 능가할 때 개인 정보의 남용, 허위 정보 확산 등 어떤 일이 발생하는지 너무나 자주 봐왔습니다.”

개회사를 읽은 건, 인공지능.

내용도 인공지능이 썼습니다.

위원장은 만약 자기 목소리가 우크라이나 침공을 지지하는 데 쓰였다면 어땠을지 끔찍하다고 했습니다.

[리처드 블루먼솔/미국 상원의원 (5월 16일, 미국 의회 청문회)] “만약 제가 우크라이나의 항복이나 푸틴의 지도력을 지지하는 발언을 했다면 어땠을까요? 정말 끔찍했을 겁니다.”

챗GPT를 만든 오픈AI의 최고경영자도 인공지능이 세계를 위협할 수 있다며, 규제 필요성을 인정했습니다.

[샘 알트만/오픈AI 최고경영자 (5월 16일, 미국 의회 청문회)] “미국이 (AI 규제를) 주도해야 한다고 생각하지만, 효과를 거두기 위해서는 전 세계적인 무언가가 필요합니다. 전례가 있습니다. 우리는 이전에 IAEA로 이걸 해왔습니다.”

인공지능의 아버지로 불리는 제프리 힌턴 박사.

50년간 인공지능을 연구했던 그는 자신의 업적을 후회한다는 글을 남기고 지난달 구글을 떠났습니다.

인공지능이 인간의 능력을 뛰어넘을 거라고 경고했습니다.

[제프리 힌턴/토론토대학 교수·컴퓨터 과학자 (5월 3일, 엠테크 디지털 2023)] “지금 우리가 쓰고 있는 인공지능이 실제로 사람의 뇌보다 나을 수도 있다는 걸 깨달았습니다. 그렇다면 얼마 안 가 인공지능이 우리를 능가할 수도 있습니다.”

빈부격차가 더 벌어질 거라는 걱정도 했습니다.

[제프리 힌턴/토론토대학 교수·컴퓨터 과학자 (5월 3일, 엠테크 디지털 2023)] “생산성은 크게 증가할 겁니다. 걱정되는 건, 생산성 증가가 사람들을 일자리에서 몰아내고, 부자는 더 부유하게, 가난 한 사람들은 더 가난하게 만들 거라는 겁니다. 그렇게 격차가 커지면, 사회는 더 폭력적이 될 겁니다.”

테슬라 최고경영자 일론 머스크도, 애플 공동창업자 스티브 워즈니악도, 사피엔스 저자 유발 하라리도, 전세계 유명인사 1천여 명은 "최소 6개월간 첨단 인공지능 개발을 일시중단하고 안전 장치 보호를 만들자"는 성명에 동참했습니다.

"최첨단 인공지능은 지구 생명 역사에 중대한 변화를 낳을 수 있다"며 위험을 관리할 수 있다는 확신이 필요하다"는 겁니다.

유럽연합은 이미 규제를 준비 중입니다.

유럽의회가 2년의 논의 끝에 마련한 규제 법안에는 안면인식 같은 생체 감시나 사람들의 감정 분석을 금지하고, 인공지능이 만든 글이나 이미지는 인공지능이 만들었다는 걸 명확히 알리도록 했습니다.

[나탈리 헬베르그/암스테르담 대학 법학 및 디지털기술학과 교수 (5월 10일)] "바로 지금이 규제해야할 시점입니다. 인공지능의 좋은 품질을 위해선 보호장치가 필요하기 때문입니다. 이미 여러 산업에 널리 퍼져 있고 사람들이 이용할테니까요.

한국은 어떨까요?

지난 2월.

인공지능법이 처음으로 국회 상임위원회 소위에서 통과됐습니다.

정부 차원의 인공지능 기본계획과 투자, 인력 양성 같은 진흥책들이 담겼습니다.

하지만 규제는 빠졌습니다.

우선 인공지능 산업을 키우고, 나중에 문제되면 규제한다는 원칙을 세웠습니다.

[곽진/아주대 사이버보안학과 교수] “조금 아쉬운 부분이기는 하죠. AI 발전 속도는 법이 따라가기에는 현실적으로 조금 어려운 부분이기 때문에.안전성에 대한 부분이라든가 아니면 적절하게 활용을 할 수 있는 활용 가이드라든가 이런 부분들이 먼저 선행이 돼야 되지 않을까라는 생각이 들고요.”

우리는 인공지능과 공존할 준비가 돼 있는 걸까요?

[한소원/서울대 심리학과 교수 (인지심리학 박사)] “어떻게 기술을 개발할 것인가도 인간이 정해야 되고, 저희가 그냥 일단 만들고 보자 이렇게 해서 밀고 나가는 것이 아니라 우리가 사람 중심으로 만든다는 게 어떤 것인가. 내가 생각하는 것보다 약간 개발이 느려진다 하더라도 어떻게 만들 것인가, 무엇을 위해서 만들 것인가. 목적을 가지고 그 맥락 안에서 저희가 생각하는 게 중요한 것 같고요.”

◀ 앵커 ▶

인류가 발명한 모든 것들은 언제나 기회이자 위기였지만, 적어도 법과 제도는 우리가 결정할 수 있습니다.

"우리는 답을 찾을 것이다. 늘 그랬듯이."

탐사기획 스트레이트, 다음 주에 다시 찾아뵙겠습니다.

서유정 기자(teenie0922@mbc.co.kr)

기사 원문 - https://imnews.imbc.com/replay/straight/6490340_28993.html

Copyright © MBC&iMBC 무단 전재, 재배포 및 이용(AI학습 포함)금지

이 기사에 대해 어떻게 생각하시나요?