"○○을 글로만 배웠습니다"…챗GPT 약점은?[영상]

CBS노컷뉴스 윤준호 기자 2023. 2. 10. 19:06
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

CBS 정다운의 뉴스톡 530
■ 방송 : CBS 라디오 '정다운의 뉴스톡 530'
■ 채널 : 표준FM 98.1 (17:30~18:00)
■ 진행 : 정다운 앵커
■ 출연 : 윤준호 기자

[앵커]
여러분 인공지능, AI챗봇 '챗GPT' 써보셨나요?

제가 오늘 쓸 기사가 있어서 자료조사를 한 번 시켜봤는데. 꽤 그럴싸한 답을 주더라고요. 벌써 논문 작성을 대신 시켰다는 분도 계시고요.  챗GPT 앞으로 어떻게 활용하게 될지, 또 우려는 없는지, IT 출입기자와 이야기 나눠보겠습니다.

윤준호 기자, 안녕하세요.

[기자]
네, 안녕하세요.

[앵커]
이 챗GPT 요즘 난리인데, 정체가 뭐에요?

[기자]
챗GPT, 말이 좀 복잡한데요.

챗은 채팅의 줄임말로 보시면 되고, GPT는 'Generated Pre-trained Transformer'의 앞글자를 딴,
풀어보면 미리 학습해서 문장을 생성하는 AI 이런 뜻이 담겨있습니다.

정말이지, 전세계는 지금 말그대로 챗GPT 열풍입니다. 제가 기사를 준비하면서 한 일주일 정도 챗GPT를 써봤는데, 이게 기존의 AI챗봇이랑은 많이 달랐습니다.

기존에 우리가 썼던 시리나 빅스비 이런 AI는 두세번까지는 대화를 주고받는게 가능한데 그게 한 아홉차례, 열차례 이렇게 넘어가면 사실 너도 나도 무슨 말을 하고 있는지 모를 때가 있거든요.

근데 챗GPT는 그 이상을 넘어 맥락을 유지하면서 자연스러운 대화가 가능했습니다.

뿐만 아니라 이미 보도도 많이 됐지만, 시나 소설, 시나리오 등 여러 장르의 작문이 가능하고요. 전문가 수준의 코딩도 막힘없이 수행한다고 합니다.

미국에서는 챗GPT가 로스쿨과 MBA, 의사시험 등 전문직 평가를 통과했다는 연구결과도 있습니다.

[앵커]
진짜 사람처럼 언어를 구사한다. 상당히 흥미로운데요. 과거 출시됐던 AI와는 어떤 차이가 있는거죠?

[기자]
알파고 아시죠. 알파고가 과거 선풍적인 반향을 불러일으켰던 AI인데, 그 알파고와 챗GPT를 비교해 보겠습니다.  IT업계에서는 지도학습과 강화학습의 차이, 이렇게 용어를 쓰는데요.

쉽게 말하면, 알파고의 경우 수많은 기보를 보고 바둑 두는 법을 배우는 지도학습을 거쳐 답을 찾았다면, 챗GPT는 이런 지도학습에 더해 스스로 기보에 없는 수를 둬가면서 이길 확률이 높은 방법을 찾는, '강화학습'까지 적용한 AI입니다.

[앵커]
예를 좀 들어주세요.

[기자]
예를 들어 한국의 수도는 서울이다. 이 대답을 듣기 위해 기존 AI의 경우에는 한국이 무슨 뜻인지, 수도, 서울의 의미는 뭔지 미리 알려줘서 하나의 사전을 만들어줘야 했습니다.

그런데 챗GPT는 그걸 정확히 모르는 상태에서 컴퓨터가 입력한 방대한 양의 텍스트를 봐요.

그 텍스트들을 바탕으로 한국, 수도, 서울 이런 개념을 학습하고, 스스로 한국의 수도는 서울이다는 문장을 만들어내는 거죠.

연합뉴스


[앵커]
지도학습과 강화학습의 차이다. 입력된 데이터만을 갖고 답을 주는 게 아니라, 그걸 바탕으로 계속 새로운 걸 생성할 수 있다는 뜻인데요. 한계점은 없나요?

[기자]
이게 한계가 챗GPT의 경우 우리 인간처럼 오감으로 경험하고 지식을 체득하는 게 아니라 오로지 100% 텍스트로만 학습했다는데 한계가 있습니다. 인간만큼 텍스트의 맥락이나 함의를 정확하게 인식하지 못할 수 있다는 건데요.

그러니까 많이 쓰는 텍스트를 뽑아내는, 단순히 확률적인 접근밖에 할 수 없다는 한계가 있습니다.

연합뉴스


전문가의 얘기 들어보겠습니다.

[장병탁 서울대 AI연구원장]
"진짜 문제는 100% 이해하지 않고 글을 흉내만 낸다는 거예요. 그런데 사람이 학습한 건 보면, 아이들은 그렇게 학습하지 않아요. … 어릴 때 우유병이라는 단어를 배우기 전에 이미 우유병 가지고 우유 마시고 쏟아도 보고 뜨거운 것도 하고 우유병이라는 개념을 이미 다 학습을 한 다음에 어떻게 보면 우유병이라는 레이블을 단어를 쓰는 거지 … 근데 기계는 지금 그렇게 학습한 게 아니고 우유병이라는 단어가 나온 많은 문서를, 문서의 단어들의 연관관계만 어떻게 되든 관계를 학습을 해가지고 사실은 단어를 생성하는 게 그냥 동전 던지기 하듯이 하나씩 생성하는 거예요, 확률에 의해서"

[기자]
전문가들은 그래서 이게 마치 환각과도 같다는 얘기도 합니다.

방금 예를 든 것처럼, 우유병에 대해서 얘기할 때 사람은 이미 우유병에 관해 개념이 정리된 상태에서 AI챗봇과 대화를 하는데, 상대방인 AI가 비록 개념이 정립되지 않은 채로 대답을 해도 마치 이해하고 대답하는 것처럼 착각한다는 거죠.

[앵커]
이해한 것처럼, 환각 같은 측면이 있다. 또 사용 면에서 다른 우려들도 있을까요?

[기자]
먼저 가장 논란이 되는 부분은 저작권 문제입니다. 이미 해외뿐만 아니라 국내에서도 챗GPT를 활용해 보고서나 과제를 제출하는 등 표절과 저작권 침해 이슈가 심심찮게 불거지고 있는데요.

여기에 더해서 우려되는 문제가 바로 거짓정보의 확산 가능성입니다.

[앵커]
어떤 얘기죠?

[기자]
예를 들어 이런 겁니다. 우리가 한라산의 높이가 얼마인지 알아보려면, 지금은 구글이나 네이버 같은 검색엔진에 한라산 높이를 검색합니다. 그러면 여러 웹사이트들이 쭉 뜨잖아요.

거기서 여기도 들어가보고, 저 사이트도 들어가보고 이런 과정을 거쳐서 '아, 한라산의 높이가 1850m이구나' 이렇게 학습을 하는 겁니다.

그런데 챗GPT는 우리가 한라산의 높이가 얼마나 되냐고 물으면 바로 1850m다, 이렇게 답을 줍니다. 매우 확신에 찬 어투로요.

근데 사실 한라산의 높이는 1950m에요. 중요한 건, 챗GPT가 던져준 대답이 참인지, 거짓인지 한 번 더 확인해야 하는데 그렇지 않고 이걸 그대로 인용할 경우에 생깁니다.

사람들이 챗GPT의 답이 참이 아닌데도 사실이라고 믿고 보고서나 논문 같은 곳에 인용하면 챗GPT는 이 참이 아닌 내용을 다시 학습하고 또 학습해 결국 또다른 유사진실을 만들어낼 수 있는 겁니다.

마치 가짜뉴스가 계속해서 돌아다니는 지금의 상황과 비슷한 현상이 생길 수 있는거죠.

[앵커]
능력이 뛰어난 만큼 우려도 큰데, 앞으로 이거 어떻게 활용하면 좋을까요?

[기자]
전문가들은 챗GPT에 의존하기 보다는 '보조'의 개념, 일 잘하는 인턴의 개념으로 활용하라고 얘기합니다. 노동이 투입되는 일을 챗GPT에 맡기고, 사람은 보다 고차원적이고 부가가치가 높은 업무에 집중하는 방식인데요.

예컨대 챗GPT에게 보고서를 10개 써오도록 하고, 최종 가치 판단은 인간이 결정하는 식이 될 수 있겠습니다.

[앵커]
그정도만 돼도 정말 편할 것 같아요. 여기까지 윤준호 기자, 잘 들었습니다.

※CBS노컷뉴스는 여러분의 제보로 함께 세상을 바꿉니다. 각종 비리와 부당대우, 사건사고와 미담 등 모든 얘깃거리를 알려주세요.
  • 이메일 :jebo@cbs.co.kr
  • 카카오톡 :@노컷뉴스
  • 사이트 :https://url.kr/b71afn

CBS노컷뉴스 윤준호 기자 yjh@cbs.co.kr

▶ 기자와 카톡 채팅하기▶ 노컷뉴스 영상 구독하기

Copyright © 노컷뉴스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?