[뉴스하이킥] 'IT계 거장' 박태웅 "국민의힘, chatGPT 활용? AI 지식 없음 폭로한 셈"

MBC라디오 2023. 2. 10. 20:33
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

<박태웅 한빛미디어 이사회 의장>
- 챗GPT? 산업적으론 부화뇌동하지 말아야
- 챗GPT가 윤리적으로 받아들이기 어려운 결론낼 수도 있어
- AI 리터러시가 제대로 준비돼있어야 해
- 국민의힘 안병길? AI에 대해서 아무런 지식 없는 듯



* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다.


■ 프로그램 : 신장식의 뉴스하이킥 (MBC 라디오 표준FM 95.9Mhz / 평일저녁 6시5분~8시

■ 출연자 : 박태웅 한빛미디어 이사회 의장


◎ 진행자 > 요즘 챗GPT가 화제입니다. 폭발적인 인기를 누리고 있는 대화형 인공지능서비스인데요. 국내 정치권에서도 이 챗GPT가 자주 거론되고 있습니다. 그런데 이 챗GPT 소위 AI시대에 대한민국은 어떻게 대응할 것이냐 어떤 준비를 해야 되냐 또는 어떻게 또 선도해 갈 것이냐 이런 얘기보다는 정치적 소재로 지금 사용되고 있어요. 그래서 이거 하나하나 따져보려고 합니다. IT전문가 박태웅 한빛미디어 이사회 의장님 나오셨습니다. 안녕하십니까?


◎ 박태웅 > 안녕하십니까?


◎ 진행자 > 시간이 많지 않아서 사실은 부드러운 얘기로 시작을 해야 되는데 그냥 바로 시작하겠습니다. 대화형 인공지능 서비스 챗GPT, 이게 뭔지부터 알려주시죠.


◎ 박태웅 > 이런 사태가 발생했을 때 사람들이 가장 잘 대응하게 하려면 AI리터러시라고 하잖아요. AI가 뭔지를 사람들이 다 이해하는 게 가장 바닥에 깔려야 될 것 같아요. 그래서 저한테 주어진 시간이 15분밖에 없지만 우선 인공지능이 뭔지를 최대한 짧게 한번 설명을 해보겠습니다.


◎ 진행자 > AI 인공지능.


◎ 박태웅 > 충분히 발달한 과학은 마술과 구분할 수 없다는 말이 있어요. 그러니까 GPU라는 게 있습니다. CPU가 컴퓨터의 중앙처리연산장치면 그 옆에 붙어서 단순한 더하기 빼기만 열심히 하라고 만든 장치가 GPU예요. 엔비디아가 세계적으로 가장 유명한데요. 거기에 GPU V100이라는 게 딥러닝 성능에서 125테라플롭스 계산을 하는데요.


◎ 진행자 > 그게 어느 정도.


◎ 박태웅 > 1테라플롭스가 1초에 1조 번 실수 계산을 해요. 더하기 빼기를. 125테라플롭스니까 1초에 125조 번 실수 계산을 하거든요. 그런데 V100 다음 버전이 A100인데 이 A100이 312테라플롭스를 하고요. 딥러닝 학습하고 추론해서 V100대비 20배가량 연산을 더 잘합니다. 이게 하드웨어적으로 이게 기본이 돼요. 이게 마술인 거죠.


◎ 진행자 > 그러네요. 1초에 320조 번 이상을 한다는 거잖아요. 더하기 빼기를.


◎ 박태웅 > 그러니까 마술이죠.


◎ 진행자 > 상상할 수 없는 숫자입니다.


◎ 박태웅 > 우리 인간의 하드웨어가 그만큼 발전해 있어요. 그리고 전문가 시스템이라는 게 있는데 옛날에는 기계가 사람처럼 판단할 수 있게 하기 위해서 가령 이 사진들에서 고양이를 골라봐라하면 전문가 시스템이라고 그래서 고양이의 특징들을 다 집어넣었어요. 눈썹은 어떻고 수염은 어떻고 코는 어떻고 꼬리는 어떻고 쭉 다 집어넣었어요. 초반에는 이게 잘 작동했습니다. 쭉 점수가 올라갔는데 데이터를 어느 순간 꼭대기에 도달하고 데이터를 더 많이 넣으니까 틀린 경우가 더 많이 나오는 거예요. 그래서 이런 방식으로는 못한다. 그래서 인공지능에 겨울이 두 번 왔어요. 그러다가 알파고가 이세돌 9단을 이겼잖아요. 그때 이분들이 했던 게 뉴럴 네트워크, 신경망 방식 딥러닝이라고 하는데 이게 굉장히 발전을 하면서 그 문지방을 넘은 거예요. 이건 어떤 방식이냐 하면 특징을 가로채는 것까지 다 그냥 니가 해라 기계 니가. 그래서 사진을 5만 장을 주면 이 5만 장의 사진의 다른 점을 다 잡아내요. 컴퓨터가. 잡아낸 하나하나를 매개변수라고 하는데 그게 천만 개, 1억 개, 2억 개 이렇게 잡아가지고 2억 개 각각에 대해서 가중치를 다 달리 주면서 어떻게 가중치를 줬을 때 고양이를 제일 잘 잡아내느냐. 2억 개의 매개변수에 대해서 가중치를 계속 바꿔가면서 계산을 하는 거예요. 근데 1초에 312조 번 정도 계산하면 그게 가능합니다. 어느 순간 인공지능이 고양이를 귀신같이 가려내기 시작했는데 문제가 있어요.


◎ 진행자 > 어떤 문제가 있습니까?


◎ 박태웅 > 어떻게 가려냈는지를 인간이 설명할 방법이 없는 거예요.


◎ 진행자 > 자기들이 1초에 320조 번씩 계산을 하다가 스스로 그런 알고리즘 논리구조를 만들어 내는 거죠.


◎ 박태웅 > 이걸 설명하려면 매개변수 1억 개를 다 열어서 왜 얘는 0.0001을 주고 얘는 0.0003을 주고 얘는 0.00025를 주고를 설명할 수 있어야 되는데 안 되는 거죠.


◎ 진행자 > 그건 사람이 못 해요. 그건 또 컴퓨터가 하라고 할 거예요. 아마 하려면.


◎ 박태웅 > 그리고 이제 챗GPT로 가 볼게요. 챗GPT는 챗, 대화형이란 뜻이에요.


◎ 진행자 > 채팅.


◎ 박태웅 > 그리고 GPT가 있죠. G는 Generative 생성한다는 뜻이에요. 그림을 학습하면 그림을 그리고 동영상을 학습하면 동영상을 내놓고 문장을 학습하면 보고서를 내놓고 하는 식으로 생성한다. P는 Pre-trained 사전 학습한 사전 학습했다는 게 무슨 뜻인가 하면 3천억 단어 정도를 입력해서 학습을 했어요.


◎ 진행자 > 최초에.


◎ 박태웅 > 5조 개 단위의 문서에서 3천억 개 정도의 단어를 뽑아내서 학습을 했다는 건데 정확히 말하면 단어라기보다는 토크라고 해야 되는데 이건 넘어가기로 하고요. 그러니까 얘는 이 단어 다음에 어떤 단어가 올 거냐를 확률적으로 예측을 하는 시스템이에요. 그런데 그거를 5조 개 단위의 문서를 가지고 3천억 개의 단어를 입력해서 학습을 하니까 굉장히 그럴싸하게 맞추는 거예요.


◎ 진행자 > 그럴 듯하게.


◎ 박태웅 > 예 근데 그냥 그럴듯하게 맞추는 게 아니라 얘는 그 T가 Transformer라는 건데 딥러닝 쪽에서 가장 압도적으로 훌륭한 모델이에요. 지금까지로는. 거기다 얘가 어텐션이라고 해서 어떤 문장이 있으면 이 문장에서 중요한 단어는 뭐다를 얘가 알아채요. 그걸 가지고 가중치를 줘서 이 단어 다음에 뭐가 나올 거다를 확률적으로 맞추는데 그게 너무 그럴싸한 거죠. 그런데 얘가 뉴욕타임스 기사에 따르면 오픈AI가 챗GPT 연구개발에 30억 달러 정도 3.7조 정도 쓴 것 같다. 그리고 돈이 다 떨어져가서 MS한테 또 한 10억 달러 정도 더 받아야 될 것 같다. 왜냐하면 아까 그 GPT A100 같은 경우 한 대에 2500만 원이 넘는데 GPU가. 그런 거 한 1천 대쯤 가지고 한 서너 달을 돌려야 한 번 학습을 할 수 있어요.


◎ 진행자 > 엄청나네요. 굉장히 하드웨어적인 측면에서도 굉장한 투자를 해야 되고 그 다음에 거기에 학습을 시키려면 데이터를 엄청난 데이터를 넣어줘야 되고.


◎ 박태웅 > 굉장한 자연 독점적 성격을 지녀요.


◎ 진행자 > 그거 누가 못하겠네.


◎ 박태웅 > 5조 개 단위의 한글문서가 있느냐. 그리고 3.7조 정도를 쓱 집어넣을 수 있는 기업이 한국에 있느냐, 그런데 지금까지 번 돈이 없잖아요. 얼마 벌지 몰라요. 그렇지만 쓴 거예요. 지금까지 밝혀진 바에 따르면 데이터를 더 많이 넣을수록 매개변수를 더 많이 잡을수록 결과가 더 좋게 나와요.


◎ 진행자 > 그래서 저는 두 가지 질문이 딱 생기는데요. 하나는 윤리적 질문이 하나가 생기고요. 하나는 한국 사회가 이걸 경제적으로 어떻게 받아들여야 되는가라고 하는 건데 윤리적 질문은 아까 말씀하셨던 게 이거를 왜 고양이로 인식하는지 결과는 고양이라는 맞는 결과를 내오지만 이걸 왜 고양이로 인식하는지를 인간이 알 수 없는


◎ 박태웅 > 그렇습니다.


◎ 진행자 > 그러면 어떤 특정한 의사결정을 하기 위해서 뭘 넣었는데 바둑을 두는데 제가 이겼는데 왜 이겼는지 모르는 거잖아요. 인간은. 그러면 어떤 특정한 정책결정을 하는데 이런 얘기를 어떤 결론을 AI가 내놨어요. 근데 인간은 이 결론을 윤리적으로 받아들이기가 어려운 결론을 내놓을 수도 있잖아요.


◎ 박태웅 > 그렇습니다.


◎ 진행자 > 과거에 멜서스의 인구론적인 이야기처럼 윤리적으로 받아들이기 어려운데 이게 합리적이야 인류 전체가 생존하기 위해서. 이거를 받아들일 거냐 말 거냐라고 하는 윤리적인 문제가


◎ 박태웅 > 굉장히 중요한 포인트를 지적하셨는데요. 하나가 그래서 Explainable AI라고 해서 설명할 수 있는 AI에 관한 연구가 굉장히 많이 이루어지고 있습니다. 설명하지 못한다면 그런 식의 문제가 생길 수밖에 없지 않느냐. 특히 치명적인 문제들 인간의 생존과 관련돼 있거나 윤리에 관련돼 있거나 이런 경우에는 반드시 근거를 설명할 수 있어야 된다. 그렇게 설명할 수 있는 AI를 개발하는 연구가 굉장히 많이 진도가 나가고 있고요. 또 하나는 아무리 그럴 듯해 보여도 확률적이고 통계적인 결과라는 걸 잊으면 안 됩니다.


◎ 진행자 > 100%가 아니에요. 신의 뜻이 아니거든.


◎ 박태웅 > 이 AI가 인간사회의 격차를 굉장히 크게 더 벌려놓을 가능성이 있다는 게 어떤 거냐하면 얘가 참말을 하는지 거짓말을 하는지를 분별할 수 있는 사람이 얘를 쓰는 것과 그걸 분별할 수 없는 사람이 이걸 쓰는 것과의 결과가 어마어마하게 벌어질 수 있어요. 그러니까 AI리터러시가 어느 정도냐 하면 옛날에 말을 가진 사람이나 소를 가진 사람과 못 가진 사람의 격차가 굉장히 커지잖아요. 그런데 기관단총을 가진 사람하고 칼을 가진 사람의 격차는 훨씬 더 클 거 아니에요. 탱크를 갖고 있고 유조선을 갖고 있는 사람하고 총을 든 사람은 차이는 엄청나게 클 거 아니에요. 그것보다 더 큰 격차가 얘 때문에 생길 수가 있다는 거예요.


◎ 진행자 > AI가 지금은 베타서비스를 하고 있기 때문에 챗GPT가 공짜로 지금 쓰고 있지만 유료화 될 거고 더 좋은 AI를 접근할 수 있는 재정적 돈과 권력을 가진 사람과 그렇지 않은 사람의 격차가 굉장히 커질 수밖에 없다.


◎ 박태웅 > 말도 못하게 커질 수가 있고요. 현재로도 이 정도 사이즈의 AI를 할 수 있는 게 보십시오. 지금 구글 MS 정도잖아요.


◎ 진행자 > 구글하고 마이크로소프트.


◎ 박태웅 > 페이스북 그리고 중국의 알리바바 몇 개 안 된다고요.


◎ 진행자 > 그러면 첫 번째 질문에 대해서는 사실은 구체적으로 가면 훨씬 더 많은 질문들이 나올 수 있을 텐데 예를 들면 소위 말하자면 자율주행차가 어떤 특별한 인명사고의 어떤 상황에 닥쳤을 때 운전자를 보호할 것이냐 외부에 있는 어린이를 보호할 것이냐 또는 어느 쪽 왼쪽으로 틀 거냐 오른쪽으로 틀 거냐 이거는 그냥 기술적인 문제가 아니라 윤리적인 문제라서.


◎ 박태웅 > 그 문제는 해결이 안 될 겁니다.


◎ 진행자 > 그렇기 때문에 강조해주셨던 게 AI리터러시, AI에 대해서 우리가 어떻게 받아들이고 어떤 판단을 인간이 주체적으로 할 거냐에 대한 리터러시가 중요하다.


◎ 박태웅 > 얘가 어떻게 작동하는 물건이구나를 이해하고 있어야 되는 거죠.


◎ 진행자 > 안 그러면 신의 뜻처럼 받아들일 수 있다는 거죠.


◎ 박태웅 > 네, 그렇습니다.


◎ 진행자 > 이런 것들을 논의해도 시간이 모자라고 그 다음에 마이크로소프트하고 구글이 꽝 부딪혀요. 그러면은 우리나라는 AI산업에 해서 어떤 준비를 해야 되는가. 또 우리는 AI리터러시를 갖기 위해서 어떤 준비를 해야 되는가 이런 논의가 전혀 없고 굉장히 코미디 같은 일만 벌어지고 있어요. 우리 어떻게 준비해야 됩니까?


◎ 박태웅 > 그게 문제입니다. 진짜. 산업화 시대, 지난번 시간에 제가 디지털 대전환의 시대 산업화 시대의 사고방식과 입장으로 맞서고 있다라고 했는데요. 사실은 이런 대화형 인공지능이 발전하면 발전할수록 정말 중요해지는 일들은 질문할 수 있는 능력이고요. 질문에서 얘가 답을 토해냈을 때 얘가 참인지 거짓인지를 분별해낼 수 있는 능력이에요.


◎ 진행자 > 그런데 국민의힘 안병길 의원실 챗GPT가 양곡관리법에 대해서 공무원 부패로 이어질 수도 있다고 분석했다고 이걸 보도자료를 냈어요.


◎ 박태웅 > 그게 정말 너무 어처구니없는 얘기인데 챗GPT는 물은 것에 대해서 답을 하도록 설계가 돼 있거든요. 문제점에 대해서 설명해봐라 하면 문제점을 설명합니다. 그런데 좋은 점을 설명해보라고 물었으면 좋은 점을 말했을 거예요.


◎ 진행자 > 그런데 이걸 이렇게 해서 보도자료를 내는 건 AI리터러시라는 입장에서 보면 전혀,


◎ 박태웅 > 2배 3배로 욕을 먹을 일을 한 거죠. 나는 AI에 대해서 아무런 지식이 없다.


◎ 진행자 > 스스로 자백, 폭로.


◎ 박태웅 > 스스로 자백 폭로한 셈인 거죠.


◎ 진행자 > 이거 양곡관리법에 대해서는 본인 스스로 가치판단과 기준을 가지고서 얘기를 하셔야지. 챗GPT가 그렇게 얘기했다고 해서. 그렇습니다. 그러면 마이크로소프트하고 구글이 꽝 부딪히는 AI시장에서 우리는 일자리에도 변화가 있지 않겠냐, 한국 사회에도 그 변화의 영향력이 있을 것 같은데 우리 어떻게 대비해야 되는 거죠? 첫 번째는 윤리적인 문제 AI리터러시를 얘기를 했고, 산업적인 측면에서 지금 어떤 준비가 필요할지.


◎ 박태웅 > 산업적인 측면에서는 부화뇌동을 하지 않았으면 좋겠어요. 뭔가가 해외에서 신기한 얘기가 나올 때마다 반드시 등장하는 형이 있습니다. 한국형이 항상 나오시거든요.


◎ 진행자 > 그 형 자주 출몰하시죠.


◎ 박태웅 > 그런데 정말 어처구니없이 출몰하실 때가 많아요. 이번에도 마찬가지인데 사실은 네이버 카카오


◎ 진행자 > 한다고 했어요.


◎ 박태웅 > GPT 형태로 하고 있은 지가 꽤 됐습니다. 그걸 한다는 것도 이상하고 사실은 그때 고민해 봐야될 것은 한국어가 갖고 있는 한계가 있어요. 네이버나 카카오가 책임이 없다고 할 수 없는 게 가두리형으로 한국의 웹을 기형적으로 발전을 시켰잖아요. 그래서 한국의 웹 생태계가 되게 기형적으로 발전을 해서 한국어 웹문서 쓸 만한 게 양이 되게 적습니다. 다 네이버 안에 들어 있고 카카오 안에 들어있는데 왜곡된 형태로 들어가 있어서 질이 좀 떨어져요. 그런데 그 품질이 낮은 데이터를 가지고 인공지능을 합성을 시키면 garbage in garbage out이라고 쓰레기를 넘는 쓰레기가 나와요.


◎ 진행자 > 시간이 다 돼 가지고 콜라파고스다 이렇게도 얘기를 해요. 한국만.


◎ 박태웅 > 정말 그렇습니다.


◎ 진행자 > 이 얘기 조금 더 듣고 싶은데요. 나중에 또 시간 한 번 더 내서 챗GPT AI시대 AI리터러시 다음에 한국, 한국형 말고 글로벌형을 만들자라는 말씀까지 오늘 말씀 여기까지 듣겠습니다. IT전문가인 박태웅 한빛미디어 이사회 의장님 감사합니다.


◎ 박태웅 > 감사합니다.


저작권자(c) MBC (www.imnews.com) 무단복제-재배포 금지

Copyright © MBC&iMBC 무단 전재, 재배포 및 이용(AI학습 포함)금지

이 기사에 대해 어떻게 생각하시나요?