[스프] 챗GPT가 일깨운 '결정적 시점'은 지금이다!

심영구 기자 2023. 2. 2. 11:03
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인간을 닮은 기계 챗GPT가 불러온 미래(뉴욕타임스 칼럼 해설)

뉴스페퍼민트 NewsPeppermint

"한국에는 없지만, 한국인에게 필요한 뉴스"를 엄선해 전하는 외신 큐레이션 매체 '뉴스페퍼민트'입니다. 뉴스페퍼민트는 스프에서 뉴욕타임스 칼럼을 번역하고, 그 배경과 맥락에 관한 자세한 해설을 함께 제공합니다. 그동안 미국을 비롯해 한국 밖의 사건, 소식, 논의를 열심히 읽고 풀어 전달해 온 경험을 살려, 먼 곳에서 일어난 일이라도 쉽고 재밌게 읽을 수 있도록 부지런히 글을 쓰겠습니다. (글: 이효석 뉴스페퍼민트 대표)



인간에게 언어는 어떤 의미일까요? 인간이 만물의 영장이 되고 지구를 정복할 수 있던 가장 큰 이유로 언어 능력을 꼽는 학자들이 있습니다. 언어는 정확하고 엄밀한 의사소통을 가능하게 할 뿐 아니라 복잡한 개념을 정의할 수 있게 만들고, 논리와 유비를 통해 인간이 현실을 이해하게 하는 핵심적인 역할을 합니다. 곧, 우리 문명의 근본에는 언어가 자리 잡고 있습니다.
 

'모라벡의 역설' 무색게 한 챗GPT


인공지능 분야에는 '모라벡의 역설'이라는 것이 있습니다. 이는 인간에게 쉬운 것은 기계에 어렵고 인간에게 어려운 것은 기계에 쉽다는 것입니다. 아이들이 서너 살만 돼도 할 수 있는 뛰어놀기, 사람을 알아보기, 의사소통 등이 기계에는 매우 어려운 일이지만, 기계가 잘하는 매우 복잡한 계산이나 반복 작업은 인간에게 어렵습니다.

그러나 최근 AI의 발전은 모라벡의 역설을 무색하게 만들었습니다. 적어도 사진에서 개와 고양이를 구별하거나 물건을 파악하고, 사람을 구별하는 능력에서는 이제 기계와 인간이 거의 동일합니다. 알파고의 충격과 딥러닝의 무수한 성공이 발표된 최근까지도, 기계와 인간 사이의 의사소통이 가능할지, 곧 가까운 시일 내에 기계가 인간의 언어를 이해하고 인간과 대화할 수 있을지에 대해서는 대부분 전문가가 부정적이었습니다.

하지만 최근 발표된 챗GPT는 이런 질문에 대한 사람들의 생각을 조금 바꾸었습니다. 물론, 챗GPT가 정말 인간처럼 의사소통이 가능한 것은 아닙니다. 하지만 챗GPT를 사용해 본 많은 사람은 적어도 '앞으로 기계가 인간의 말을 이해하게 될까?'라는 질문에 '그럴 가능성이 매우 높다'라고 입을 모으고 있습니다. 설마 이런 것까지 답을 해줄까 싶은 질문에도 상당히 완성도 높은 답변이 나오니까요.
 

언어를 이해한다는 것


저는 최근에 만난 한 외국인 변호사로부터 만남이 즐거웠고 언제 같이 점심을 먹자는 이메일을 받았습니다. 이전 같으면 영어로 문장을 생각하며, 초안을 쓰고 제가 아는 영어 교사에게 유료로 교정을 받고 답장을 보냈을 겁니다. 하지만 이번에는 챗GPT에 위 메일에서 사람들의 이름을 지운 뒤 '이런 메일을 받았어. 답을 써줘'라고 부탁해 봤습니다. 솔직히 제가 쓴 초안보다 더 나은 글을 얻었습니다.

결국, 챗GPT는 언어를 이해한다는 것이 그저 단어 간의 관계를 이해하는 것으로 충분한지, 그리고 만약 그렇다면 더 많은 데이터로 더 많은 변수를 학습하기만 하면 되는 것인지라는 질문에 '그럴지 모른다'라고 대답한 셈입니다. 그리고 이 질문은 곧 우리 인간의 뇌가 가진 특별함이 그저 수많은 연결만으로 흉내 낼 수 있는 것인지라는 질문과 같습니다.

처음으로 언어가 어쩌면 무척 단순한 문제일지 모른다는 느낌을 받은 것은 'Word2Vec'이라는 개념을 보았을 때입니다. 이는 단어, 곧 개념을 가상공간의 벡터에 대응시키는 방법입니다. 간단히 말하면, 왕이라는 개념에서 남자를 빼고 여자를 더하면 여왕이 됩니다. 이는 개념들 사이의 논리적 연산을 가능하게 합니다. 자연스럽게, 공간을 매우 크게 만들고 개념들의 관계인 문장을 다시 벡터로 만들면 문장 간의 연산도 가능할 것이라는 느낌을 줍니다. 챗GPT는 바로 그 작업이 가능하다는 것을 보여주고 있습니다.

그리고 '이해'에 대한 저의 경험도 이 질문에 긍정적인 답으로 기울게 합니다. 저는 종종 학생들에게 자신이 한 개념을 이해했는지 확인하고 싶으면, 자신이 아는 기존의 개념들을 이용해 새로이 배운 어떤 개념을 표현할 수 있는지, 그것도 다양한 방법으로 표현할 수 있는지 확인해 보라고 말했습니다. 이는 곧, 새로운 개념이 다른 개념들 간의 관계를 통해 뇌 안에 자리 잡았는지 확인하는 작업이기도 합니다.

▶뉴욕타임스 칼럼 보기 : 챗GPT가 민주주의를 장악하는 경로
[ https://premium.sbs.co.kr/article/8pWpGmZJ0I ]

지난 15일, 뉴욕타임스에 실린 데이터 과학자 네이선 샌더스와 보안 전문가 브루스 슈나이어의 우려는 바로 이런 전망을 바탕으로 하고 있습니다. 그들은 챗GPT와 관련 기술이 부족하나마 인간을 매우 비슷하게 흉내 낼 수 있다면 지금 우리 사회를 유지하는 시스템인 민주주의가 위험해질 수 있다고 경고합니다.
[ https://www.nytimes.com/2023/01/15/opinion/ai-chatgpt-lobbying-democracy.html ]

그들이 먼저 우려하는 것은 온라인 공간의 댓글과 같은 작업을 통해 사람들의 생각에 영향을 미치는 것입니다. 챗GPT가 없다면 적어도 이런 작업을 위해서는 이 일을 할 수 있는 이들을 상당한 비용을 주고 고용해야 했습니다. 하지만 챗GPT는 인간을 비슷하게 흉내 낼 수 있으며, 따라서 그 비용을 크게 줄였습니다. 이제 정말로 어떤 문제에 대해 한쪽으로 치우친 그럴듯한 댓글을 수천 명이 단 경우에도 과연 저 많은 사람이 그렇게 생각하는지를 의심해야 할 정도입니다.

이들이 더 크게 걱정하는 것은 앞으로 AI가 민주주의 제도를 해킹하는 것입니다. 대표적인 예로 그들은 우리에게는 다소 생소한 미국의 로비 시스템을 들고 있습니다.

**'보러가기' 버튼이 눌리지 않으면 해당 주소를 주소창에 옮겨 붙여서 보세요.
[ https://premium.sbs.co.kr/article/_eV46auGm9 ]

심영구 기자so5what@sbs.co.kr

Copyright © Copyright ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?