[뉴스하이킥] “AI업계, 깔려 죽을 거 같다”는 말 나오는 GPT-4 돌풍

MBC라디오 2023. 3. 22. 20:33
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

<박태웅 한빛미디어 이사회 의장>
- 하루아침에 개발 폭발... 지금은 '인공지능의 캄브리아기'
- 챗GPT와의 모든 대화 내용은 저장돼, 회사 기밀 자료 주의해야
- 원데이터를 제공했던 사람들이 저작권을 잃어버린다는 건 문제
- 변화에 맞춰서 제도와 윤리가 새롭게 구축돼야



* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다.


■ 프로그램 : 신장식의 뉴스하이킥 (MBC 라디오 표준FM 95.9Mhz /평일저녁 6시5분~8시)

■ 출연자 : 박태웅 한빛미디어 이사회 의장


◎ 진행자 > 신장식의 뉴스하이킥 수요일은 더 특별합니다. 특별한 수요일의 특별한 통찰 [특수통] 오늘 만나보실 특수통은요. IT전문가인 박태웅 한빛미디어 이사회 의장입니다. 어서 오십시오.


◎ 박태웅 > 안녕하세요.


◎ 진행자 > 안녕하세요. 지난번에 나오셨을 때 챗GPT에 대해서 이야기를 했는데 그새 그때는 3.0 가지고 얘기했잖아요. 챗GPT 3.0, 3.5 가지고 얘기를 했는데 챗GPT 4, 며칠 전에.


◎ 박태웅 > GPT 4가 나왔어요.


◎ 진행자 > 네, GPT 4가 나왔어요. 이거 뭡니까? 지금 너무 속도가 빨라요.


◎ 박태웅 > 지난주를 사람들이 AI의 10년이라고 부릅니다. 그러니까 10년 동안 일어날 일이 일주일 새에 일어났다는 건데요. 요일별로 보면 월요일 날 스탠포드대학교에서 알파카를 내놨습니다. 이게 챗GPT하고 같은 건데 굉장히 경량화해서 컴퓨터 한 대로도 돌릴 수 있게 만들었다는 건데요. 페이스북에서 내놓은 라마를 기반으로 만든 건데 이렇게 되면 이론적으로는 집집마다 챗GPT를 한 대씩 들여놓을 수도 있게 됩니다. 그리고 화요일에는 말씀하신 것처럼 GPT 4가 나왔는데 그날 그것만 나온 게 아니고 아예 윤리를 헌법처럼 박아서 인공지능을 개발하자하는 클라우드가 API를 공개했고요. 구글의 인공지능인 팜도 API를 공개했고


◎ 진행자 > API가 뭐죠?


◎ 박태웅 > 애플리케이션 프로그래밍 인터페이스라는 건데요. 프로그램 하고 약속한 어떤 규약인데 말하자면 내가 기름을 생산하면 기름 차 싣고 가서 다시 내리고 이렇게 하는 대신에 파이프를 연결해서 그냥 기름 쭉쭉쭉 받아갈 수 있게. 정해진 규약대로 요청을 하면


◎ 진행자 > 그러면 인공지능을 바로 공급해주겠다, 말하자면. 그런 걸 공개했어요.


◎ 박태웅 > 그렇죠. 구글의 클라우드 오피스인 워크스페이스에 인공지능을 통합하겠다, 이게 화요일 날 일어난 일이고요.


◎ 진행자 > 굉장히 큰일이네요.


◎ 박태웅 > 수요일에는 오픈소스 파이토치2.0하고 이미지를 만들어주는 생성형 인공지능의 미드저니5.0이 발표가 됐고요. 그리고 목요일에는 마이크로소프트오피스의 GPT를 통합해서 마이크로소프트 365 코파일럿이 나왔습니다. 이게 무슨 뜻인가 하면 워드나 엑셀에서 그냥 궁금한 거 있으면 쳐놓으면 GPT에서 바로 대답을 해주고 그걸 엑셀이나 워드를 떠날 필요가 없이 파워포인트를 떠날 필요가 없이 그냥 GPT를 쓸 수 있다는 뜻이에요.


◎ 진행자 > 그러니까 파워포인트 이렇게 파워포인트 만들어줘 그러면 파워포인트가 만들어주는 거고. 엑셀에다가 함수값 막 입력해야 되는데 그렇게 입력하지 않고 말로 이렇게 이렇게 해가지고 평균 내주고 요건 이렇게 해서 무슨 분석해 주고 이건 그래프 만들어줘 하면


◎ 박태웅 > 해준다는 거죠.


◎ 진행자 > 그거 엄청 힘든데.


◎ 박태웅 > 이게 지난 한 주에 다 일어난 일입니다.


◎ 진행자 > 어쨌든 다 알아듣지는 못할 겁니다. 청취자 분들도 그렇고 저 역시 그런데 진짜 엄청난 일들이 벌어지고 있구나.


◎ 박태웅 > 그런데 이게 끝이 아니고요. 오늘 하루에만 4가지 발표가 또 나왔어요. 구글이 챗GPT하고 비슷한 대화형 인공지능의 바드를 내놨고요. GPU 만드는 세계 최고의 GPU 회사 엔비디아가 기업을 위한 클라우드형 파운데이션 모델을 내놨는데요. 기업이 쓸 수 있는 대규모 언어 모델 인공지능 서비스 네모, 이미지 비디오뿐 아니라 3D 애플리케이션까지 만들어주는 피카소.


◎ 진행자 > 주문하면 챗GPT처럼 바로 만들어주는 거예요? AI가.


◎ 박태웅 > 네, 기업들이 자기만 쓸 수 있게 클라우드해서. 그리고 생물학 연구에 쓸 수 있는 바이오네모를 발표했고요. 포토샵 하는 어도비가 생성형 인공지능을 사용해서 말을 하면 그림을 그려주는 파이어 플라이어를 내놨고요. 마이크로소프트는 검색서비스 빙에다가 GPT 4 붙였잖아요. 그것뿐 아니고 말로 하면 이미지 만들어주는 달리2도 통합한다고 발표했습니다. 이게 다 오늘 하루에 일어난 일이에요. 생명체가 폭발적으로 나타났던 캄브리아기에 비견할만한 인공지능의 캄브리아기입니다. 지금.


◎ 진행자 > 어떻게 하죠? 일단 걱정이 먼저 드는데 지금 이 시대를 사는 인간은 어떻게 이런 빠른 AI의 변화에 적응을 해야 될까라는 질문이 먼저 들어요.


◎ 박태웅 > 그렇죠. 그러니까 지금 인공지능 업계에 일하고 있는 친구들도 지난주부터 깔려 죽을 것 같다 그래요. 발표되는 논문들을 따라 읽기도 버겁다는 거야. 시간이 없다.


◎ 진행자 > 전문가들도 그 업계에 있는 사람들도.


◎ 박태웅 > 깔려 죽을 것 같다. 미친 거 아니냐.


◎ 진행자 > 물론 텔레비전의 원리를 TV의 원리를 다 알아야 TV를 보고 즐길 수 있는 건 아닙니다. 하지만 이게 뭘 하는 기계인지는 알아야 요즘 스마트 TV는 배우려면 한참 걸리더라고요. 어떻게 이걸 잘 활용할 수 있을까 우리는 어떤 윤리적 기준 어떻게 대처해야 될까 이런 질문들을 하지 않을 수가 없을 것 같습니다. 먼저 광고 갔다 와야 되는데요. 지금 나오는 게 전부 다 생성형 AI라는 거죠?


◎ 박태웅 > 그렇습니다. 이게 생성형인데요. 왜 제가 지난 시간에 GPT의 G가 제너러티브 생성형이라고 그랬잖아요.


◎ 진행자 > 검색형이 아니라는 거죠.


◎ 박태웅 > 만들어낸다.


◎ 진행자 > 답변을 만들어내요. 예전에는 검색형, 뭘 하면 있는 자료를 그냥 우리 눈앞에 보여주는 거였는데 개인의 질문에 따라서 개인에 대한 답변을 만들어내준다 라는 측면에서 굉장히 다른 국면이 지금 열리고 있는 건데 더 자세한 이야기 잠시 광고 듣고 와서 더 깊이 해보도록 하겠습니다.


신장식의 뉴스하이킥 특별한 수요일의 특별한 통찰 [특수통] 오늘의 특수통 박태웅 한빛미디어이사회 의장님과 함께하고 있습니다. AI 특히 생성형 AI까지 얘기를 했고요. 챗GPT 3.5가 GPT 3.5가 챗GPT인 거죠. 4.0이 과거에 비해서 어떤 점이 더 강력해진 겁니까?


◎ 박태웅 > 생성형 인공지능에 대해서는 지난 시간에 신장식의 뉴스하이킥에서 했으니까 유튜브 올라와 있는 그거 참고해 주시고요. 오늘은 GPT 4.0 중심으로 말씀을 드리겠습니다. 챗GPT가 GPT 3.5버전을 바탕으로 한 것이었고 그 다음에 GPT4.0인데요. 챗GPT도 미국 변호사 시험을 통과하긴 했는데 하위 10% 성적으로 통과했고요. 이번 GPT 4.0는 상위 10% 성적으로 통과했습니다. 생물학 올림피아드도 상위 1% 통과했는데 무엇보다 놀라운 게 이미지로 입력을 받을 수 있게 됐어요. 프랑스어로 된 물리시험지를 사진을 찍어서 보여주면 그 이미지에 있는 텍스트를 읽어가지고 영어로 문제를 풀어줍니다.


◎ 진행자 > 과거에는 OCR.


◎ 박태웅 > OCR이 필요 없어졌어요.


◎ 진행자 > 텍스트 여기 그냥 인쇄돼 있는 걸 텍스트로 인식을 하려면 별도의 물리적인 하드웨어가 있어야 됐죠.


◎ 박태웅 > optical character reader가 있어야 됐죠.


◎ 진행자 > 근데 이거 그냥 본다는 거예요.


◎ 박태웅 > 그리고 다국어 능력도 아주 좋아져가지고 GPT 4.0의 한글 능력이 챗GPT의 영어능력을 능가하게 됐습니다.


◎ 진행자 > 그러면 한글로 물어봐도 답 잘해준다.


◎ 박태웅 > 한글로 물어봐도 챗GPT에서 영어로 묻던 것만큼 혹은 그 이상 대답을 한다.


◎ 진행자 > 사용하는 사람으로서는 이거 되게 좋은데.


◎ 박태웅 > 그렇긴 한데요. 이게 사용자로서는 반가운 일일 수 있는데 한편으로는 한국 기업들한테는 진입장벽이 완전히 사라져버리는 거 아닌가 하는 두려움이 생겨요.


◎ 진행자 > 한국형 AI는 만들 수가 없어져 버리는 게 되는 거죠. 경쟁력이 떨어지는.


◎ 박태웅 > 한국형이라는 말이 약간 무색할 수 있다. 거기다가 파운데이션 모델인데 파운데이션 모델이라는 게 사전학습을 충분히 하면 특수한 분야 전문 분야에 대해서도 별도의 학습이 필요 없이 그냥 적용할 수가 있다는 거거든요. 그래서 파운데이션이 된다고 해서 파운데이션 모델이라고 하는데 어중간한 크기의 AI 기업들로서는 움치고 뛸 곳이 정말 줄어들어버리고요. 어떤 회사들 같은 경우는 2~3년 동안 했던 일들이 어떡하지 이렇게 될 가능성도 있어요.


◎ 진행자 > 그래도 한국에서도 카카오도 그렇고 네이버도 그렇고 나름 생성형 AI를 만들기 위해서 그리고 지금도 나와 있는 것들도 있고 하지 않나요.


◎ 박태웅 > 굉장히 곤혹스러울 것 같아요.


◎ 진행자 > 이렇게 가버리면.


◎ 박태웅 > 네.


◎ 진행자 > 그런데 이번에도 소위 거짓말을 잘 모르는 거를 잘 모른다고 얘기 안 하고 그럴 듯하게 막 이야기를 그전에 챗GPT가 해가지고 소위 먹물 깨나 먹었다는 사람들이 챗GPT 놀리기게임을 막 했잖아요.


◎ 박태웅 > 놀리기 게임이 인터넷에서 유행을 했죠.


◎ 진행자 > 유행했어요. 엉뚱한 이야기를 막 해가지고 엉뚱한 질문을 해서 그걸 할루시네이션


◎ 박태웅 > 환각효과.


◎ 진행자 > 이건 많이 개선됐나요?


◎ 박태웅 > GPT의 T가 트랜스포머거든요. 트랜스포머가 인공지능 모델인데 앞에 단어를 보고 그 다음에 올 가장 근사한 단어를 추측하는 거예요. 이 트랜스포머라는 모델을 쓰는 한 없는데 지어내는 말을 없애기는 대단히 어렵거나 불가능해 보입니다. 제가 이번에 써보니까 여전히 한 20%정도 비중은 되는 것 같아요. 자기들 말로는 아주 많이 줄였다고 하는데 이게 위험한 게 워낙 근사하게 훌륭한 말들을 하다가 중간에 슥 섞거든요. 그래서 정신 바짝 차리고 보지 않으면 그냥 바로 속아 넘어갑니다.


◎ 진행자 > 예를 들면 어떻게 박태웅 의장님은 어떻게 놀려 보셨어요? 어떤 문장.


◎ 박태웅 > 역시 조선왕조실록이 놀리기 제일 좋고요. 사도세자 다리 부러진 사건에 대해서 알려 달라,


◎ 진행자 > 그랬더니


◎ 박태웅 > 뭔가 거짓말을 토해내기 시작합니다. 어제 마이크로소프트 주가가 왜 떨어졌지라고 물어보면 너무나 근사하게 설명하는데 그게 사실은 1월에 있었던 사건들이거나 이런 건데 너무 그럴 듯해서 그래서 떨어졌구나, 근데 검색해보지 않으면 깜빡 속는 거죠.


◎ 진행자 > 예를 들면 챗GPT 3.5버전이 21년 데이터까지를 가지고 한 거잖아요. 그래서 현재 대한민국의 대통령은 누군가요 그러면 3월 23일 현재 대한민국 대통령은 엉뚱한 사람 이름을 얘기를 합니다. 너무 그럴 듯해요. 날짜를 왜 쓰느냐고요.


◎ 박태웅 > 그러니까요. 근데 빙에 붙인 거는 요즘 데이터를 빙검색을 통해서 보완을 하고 있습니다.


◎ 진행자 > 그렇군요.


◎ 박태웅 > 그런데 여기서 굉장히 주의해야 될 게 챗GPT하고 하는 모든 대화 내용은 다 저장이 됩니다. 챗GPT를 써보는 건 좋은데 회사 기밀 자료 같은 걸 집어넣어놓고 PPT 만들어 달라거나 엑셀 데이터 분석해 달라 이런 거 하면 절대 안 됩니다.


◎ 진행자 > 그러네요.


◎ 박태웅 > 어제는 실제로 대화 내용이 유출되는 버그가 나왔어요. 그래서 어제 챗GPT를 못 쓰셨을 거예요. 다운돼가지고. 이 버그 때문에 다운된 거예요. 이 버그를 고치려고 서비스를 끊어버린 거예요.


◎ 진행자 > 코파일럿이라고 했으니까 부기장이라는 거잖아요. 코파일럿 협력기장 내지는 부기장, 주기장인 인간이 쭉 비행을 하는데 챗GPT나 AI가 와서 도와주는 거죠. 그런데 부기장이 도와주려면 이쪽에 굉장히 중요한 정보들을 주면서 이거 어떻게 해야 돼라고 해야 되잖아요.


◎ 박태웅 > 줘야 되잖아요. 이걸 분석해 요약해라고 하려면 줘야 되잖아요. 내 데이터가 파이어월 안에 있다. 절대로 건너가지 않고 너희는 저장하지 않는다는 확신이 있기 전까지는 회사 기밀데이터를 여기 쓰는 건 하지 않는 게 좋습니다.


◎ 진행자 > 그런데 기밀데이터를 가지고 실질적인 도움을 받고자 그런 데이터를 올리거나 또 이렇게 대화하면서 챗GPT 놀리기 할 때 이건 이런 거야 하고 우리가 설명을 해주기도 하는데 질문을 가장해서 그런데 그게 그러면 누군가 이 마이크로소프트가 그 데이터를 다 갖게 되는 건가요? 걱정되는데.


◎ 박태웅 > 약관에도 저장한다고 적혀 있습니다.


◎ 진행자 > 아 약관에도요. 무시무시한데요. 마이크로소프트가 인간의 데이터와 정신을 다 지배하는 거 아닙니까? 이러다가.


◎ 박태웅 > 그럴 수도 있죠. 미국의 주요 금융회사들은 지금 챗GPT 사용 금지하고 있습니다. 사내에서.


◎ 진행자 > 기술적인 건 그렇고 그럼 이렇게 생성형 AI가 계속해서 발전해 나갈 텐데 그럼 우리는 그 변화 어떤 변화를 대비해야 되고 우리는 어떻게 변화할까를 예측해야 되고 어떻게 대비해야 되는가 어떤 원칙을 가지고 이런 게 궁금해요.


◎ 박태웅 > 어떻게 써라 이런 말들은 여러 군데에서 많이 하니까요. 우리는 이런 종류의 인공지능이 사회에 무슨 변화를 불러일으킬 거냐 그래서 우리는 무슨 대비를 해야 되느냐 그런 얘기를 드리고 싶은데요. GPT가 정말 요약을 잘하거든요. 5조 개의 문서를 가지고 학습을 했기 때문에 정말 잘합니다. 그리고 그림을 가지고 학습을 하면 그림도 굉장히 잘 그려요. 사람 손가락을 이상하게 그린 거 빼놓고는 참 잘합니다. 문제는 이렇게 5조 개의 문서 세상에 나와 있는 사실상 모든 인터넷에 있는 모든 데이터들을 다 가지고 학습을 하고 모든 그림들을 가지고 학습을 하면 원본이 된 사이트들 트래픽이 무너진다는 문제가 생겨요. 지금 근사한 요약으로 답을 주면 그 요약 본 사람이 원본 사이트 찾아가겠느냐 그 다음에 몇 억 장의 그림을 가지고 학습을 했는데 그 그림을 가지고 인공지능이 새로운 그림을 만들어주면 그 학습한 몇 억 장에 대해서는 어떤 저작권도 인정하지 않습니다. 돈을 주지 않아요. 그런데 실제로 그 정도로 그림을 잘 그리게 되면 지금 보면 음식 사진 기가 막히게 내놓거든요. 그러면 음식 사진 찍던 사진가들은 설자리가 없어지는데 정작 그 사람들이 왜 설자리가 없어졌냐면 자기가 찍어서 인터넷에 올렸던 그 음식 사진들 때문에 그렇게 된 거예요. 그런 거죠.


◎ 진행자 > 데이터는 내가 다 줬는데 원데이터를 제공했던 사람들은 다 자기 라이센스나 이런 거 잃어버린다.


◎ 박태웅 > 네, 2년 안에 인터넷에 올라와 있는 모든 그림의 절반 이상이 AI의 터치를 받은 그림으로 채워질 거라고 생각하고요. 그리고 카피본이 너무 많이 나타나는 문제도 있습니다. 만드는 게 너무 쉬우니까 몇 초에서 몇 십 초마다 막 만들어주거든요. 그걸 다듬는데 후공정에 시간을 쓴다 해도 예전하고 비할 바가 없는 거죠.


◎ 진행자 > 이렇게 변화된다. 그러면 그런 변화에 맞춰서 법과 제도나 윤리 새롭게 구축돼야 되는 거 아닙니까?


◎ 박태웅 > 그렇죠. 어떤 문제가 생기냐면 챗GPT나 빙을 써보신 분들은 알 텐데 대화를 끝낼 때까지 거의 원본사이트는 찾아가지 않게 돼요. 그냥 훌륭하니까. 그리고 훌륭하지 않으면 다시 또 묻고 또 묻고 하면 되니까 채팅을 계속 이어가지 걔 말을 듣거나 제안하는 어떤 사이트로 시작하게 되는 경우는 거의 없어요.


◎ 진행자 > 원본 대조필을 안 한다는 거네.


◎ 박태웅 > 역시 변호사님. 그런데 이렇게 되면 그 원본사이트들이 트래픽이 없이는 유지될 수 없는 사이트들이 많아요. 맛집리스트를 제공해 주는 사이트라든가 게시판 사이트라든가 콘텐츠 서비스 같은 것들 혹은 광고수익에 기반이 되는 블로그들 같은 곳이 갈 데가 없어지잖아요. 그래서 얘들이 몰락을 하게 되는데 그러면 또 어떤 문제가 생기냐 하면 인공지능은 학습을 하기 위해서 원본데이터가 있어야 되잖아요.


◎ 진행자 > 그렇죠. 있어야 되죠.


◎ 박태웅 > 한 2년 지나면 원본사이트가 다 사라지는 거예요.


◎ 진행자 > 그러면 자기들끼리 중복해서 복제하나? 이제 AI들끼리.


◎ 박태웅 > 그렇죠. 인공지능끼리 복제하게 되는데 그렇게 되면 인공지능에서 생산하는 데이터의 퀄리티가 확실히 떨어지더라는 연구 결과가 있습니다.


◎ 진행자 > 발전을 할 수가 없죠. 원본이 있어야 데이터가 축적이 돼서 발전을 할 거 아니에요.


◎ 박태웅 > 복사기가 아무리 정밀하고 좋아도 복사한 종이를 또 복사하고 또 복사하고 또 복사고 또 복사하면 나중에 못 알아보게 되잖아요. 그런 결과가 나온다는 거죠.


◎ 진행자 > 그러면 원본을 생산하는 분들한테 사회가 인센티브를 줘야 되지 않나요? 그러면.


◎ 박태웅 > 저작권에 관해서 새로운 규율이 필요하고요. 어쨌든 간에 인터넷 생태의 황폐화가 사실 일어날 수도 있고 실제로 영국의 SF 소설을 출판하는 굉장히 훌륭한 출판사가 원고를 투고를 받는데 얼마 전에 투고 받는 걸 중단했어요. 생성형 AI로 만들어온 복사본 카피 보이 한꺼번에 너무 많이 들어왔는데 그걸 가려낼 도리가 없는 거예요.


◎ 진행자 > 우리 교수님들 어떡하지 옛날에는 저기 구글 검색해서 리포트 내지 마라 베껴 내지 마라 그랬는데


◎ 박태웅 > 그거 안 됩니다. GPT4, 챗 GPT를 가지고 만든 게 이게 인공지능이 만들었다는 걸 알아낼 수 있나 하고 실험을 해봤는데 24% 정도 밖에 못 찾아냈어요.


◎ 진행자 > 인공지능도 인공지능의 저작물을 구분을 못하는. 카피킬러는 소용없어지는 거 아닙니까? 이렇게 되면.


◎ 박태웅 > 그렇죠. 못 잡아냅니다.


◎ 진행자 > 누군가는 훨씬 더 좋아질 수 있겠는데 논문 복제하는데 그 다음에 제가 또 궁금한 건 이 부분이 있습니다. 만약 얘들이 소위 할루시네이션 그럴 듯한 거짓말을 얘기할 때 그걸 인간이 결국은 이거 거짓말인데라고 판단을 해야 되잖아요. 근데 그 그럴듯함이 계속 이렇게 향상이 되면 인간이 그거 구별해낼 수 있어요? AI의 거짓말을 인간이 구별해낼 수 있을까.


◎ 박태웅 > 그렇게 쉽지 않습니다. 그러니까 굉장히 정신을 바짝 차리고 걔를 확인하기 위해서 검색을 할 수 있어야 되고


◎ 진행자 > 원본으로 가봐야 돼.


◎ 박태웅 > 네, 원본으로 가봐야 되고 그런데 보통의 사람들이 그렇게 할까. 왜냐하면 지금도 피싱 메일에 얼마나 많이 당합니까. 아빠 스마트폰 유리 깨먹었는데 돈 좀 보내줘 이런 거 얼마나 많이 속습니까?


◎ 진행자 > 저도 몇 번 받았습니다. 그 문자.


◎ 박태웅 > 이건 그거하고 비교할 수 없이 그럴듯하게 지어낸단 말이에요. 거기다가 참말을 아주 편리하게 해줘서 많은 도움을 받고 있는데 거짓말 하는 거 섞어서.


◎ 진행자 > 그러니까요. 그럴 경우에 MS소프트가 작정을 하고 이건 아주 극단적 과정입니다. SF소설 같은 작정을 하고 몇 가지 말하자면 넛지 같이 몇 가지 전 인류를 속일만한 넛지를 거기다가 집어넣어가지고 거짓말을 하면 어떡하지 하는 이런 걱정도.


◎ 박태웅 > 실제로 얘를 이렇게 잘 구슬리면 사람을 넛지에서 나쁜 쪽으로 몰아가는 경우도 있습니다. 챗GPT 오픈하고 며칠 안 됐을 때 뉴욕타임스 기사가 실리게 됐어요. 기사를 이렇게 나쁜 쪽으로 넛지를 하는 그 대화 내용을 다 담아서 뉴욕타임스의 기사가 나오게 됐고요.


◎ 진행자 > 여기 넛지라는 게 이제 특정한 자극을 주면 어느 한쪽 편으로 행동하게 되는 유도할 수 있는 특별한 자극을 얘기를 하는 건데 챗GPT가 만약 특정한 넛지를 가지고 이렇게 넛지를 계속해서 해서 유도하면 그리고 또 오늘 어제 오늘 기사보니까 이미 AI로 그런 동영상이라든지 이런 걸 만들게 하게 되니까 뭐라고 해야 되나. 야동 이런 거 굉장히 또 벌써 생성을 해서 만들어내고 있다고 하더라고요.


◎ 박태웅 > 생성형 AI가 가지고 있는 또 위험한 요소들이 뭐냐 하면 GPT4는 이미 프로그래밍을 초개발자 넘어섰거든요. 잘합니다. 그런데 얘가 사이버 공격이나 해킹 쪽으로 계속 전문적으로 공부를 하게 됐을 때


◎ 진행자 > 그거 누가 막지.


◎ 박태웅 > 그러면 인간이 예상하지 못한 방법으로 침투를 하는 게 가능해질 수도 있어요. 거기다가 가짜뉴스 하고 음란물 퍼뜨리는 사람들도 엄청난 엔진을 갖게 됩니다.


◎ 진행자 > 제작 시간이 엄청나게 몇 초 안에.


◎ 박태웅 > 가짜 뉴스들이나 프로파간다 수천 수만 개를 만들어서 퍼뜨리는데 불과 몇 만 원이면 되는 그런 세상이 돼 버리는 거죠.


◎ 진행자 > 우리 뭐 준비해야 됩니까? 너무 엄청난 이야기를 오늘 너무 많이 들었는데.


◎ 박태웅 > 사실은 오픈AI를 만든 샘 알트만이 애초에 오픈AI를 만든 이유가 얘를 공개적으로 해서 인공지능의 위험을 최소화해보자라고 시작을 했거든요. 그런데 실제로 보면 가장 앞장서서 달리고 있어요.


◎ 진행자 > 그러네요. 역설이네.


◎ 박태웅 > 그런데 이 친구가 두 가지 이야기를 해요. 어차피 우리가 아니어도 누군가 이렇게 할 일이다. 그렇다면 우리같이 착한 사람들이 하는 게 낫다.


◎ 진행자 > 당신이 착한지 우리가 어떻게 알아


◎ 박태웅 > 그렇죠. 그리고 실험실에서는 이 부작용들을 다 알 방법이 없으니까 현실세계에 내놓고 위험요소들을 대응해 나가는 게 낫다.


◎ 진행자 > 일단 이 음식 먹어보고 몸에 나쁜지 좋은지 확인해 보자 이런 거예요? 저는 굉장히 무책임하게 느껴지는데요.


◎ 박태웅 > 그렇죠. 그런데 인터뷰 곳곳에서 우리 같이 착한 사람들이 조심스럽게 일을 하는 게 낫다는 태도를 명백히 보이고 있습니다.


◎ 진행자 > 저는 불안한데요. 그 말 자체가. 오늘 벌써 시간이 다 돼서 나중에 또 한 번 모시고 말씀을 어차피 특수통으로 오셨으니까


◎ 박태웅 > 시간 정말 빠르네요.


◎ 진행자 > 또 말씀을 들어야 될 텐데 정말 무섭고 보통 일 아닌데 사회 전체 그리고 우리 인류가 제대로 된 규칙 가이드라인 윤리 법과 제도 빨리 마련하지 않으면 그냥 휩쓸려 가겠다라는 걱정입니다.


◎ 박태웅 > 그렇습니다. 이게 전세계적으로 국경을 상관없이 일어난 일이기 때문에 EU 같은 데하고 손을 잡고 서둘러서 규율을 만들 필요가 있습니다.


◎ 진행자 > 네, 오늘의 특수통 박태웅 한빛미디어 이사회 의장님이었습니다. 감사합니다.


◎ 박태웅 > 감사합니다.



저작권자(c) MBC (www.imnews.com) 무단복제-재배포 금지

Copyright © MBC&iMBC 무단 전재, 재배포 및 이용(AI학습 포함)금지

이 기사에 대해 어떻게 생각하시나요?