챗GPT를 바보 만든 ‘그 질문’, 바드는 이렇게 답했다 [여기 잇(IT)슈]

이시내 2023. 5. 21. 08:10
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

바드, 챗GPT와 달리 최신 데이터 학습
한국어 서비스...40개 언어 지원 예정
거짓을 진짜처럼 답변하는 '환각'은 여전

[편집자 주] 하루가 다르게 세상이 바뀌고 있습니다. “미래는 이미 와 있다”는 공상과학(SF) 소설가 윌리엄 깁슨의 명언을 실감할 수 있는 요즘입니다. ‘여기 잇(IT)슈’ 코너에선 과학·IT 이슈를 소개합니다. 최신 기술에 익숙하지 않은 사람도 변화하는 속도에 맞춰갈 수 있도록 이해하기 쉽게 설명하겠습니다.  

‘챗GPT(ChatGPT)’의 라이벌이 나왔습니다. 10일(현지시각) 전면 공개된 구글의 생성형 인공지능(AI) 챗봇 ‘바드(Bard)’입니다. 챗GPT가 상한가를 치자, 조바심을 느낀 구글은 2월 시연회에서 바드를 공개했다가, 혹평을 받았던 바 있는데요. 그때와는 사뭇 달라진 양상입니다. 

구글이 절치부심한 끝에 나온 바드는 지난번 때와는 어떻게 달라졌고, 또 챗GPT와는 어떻게 다를까요? 

바드에게 물었습니다. “누구냐, 넌?” 

◆ 바드 vs 챗GPT…인구가 가장 많은 국가 물었더니

사진제공=구글

“저는 바드(Bard)입니다. 구글 AI의 ‘대규모 언어모델(LLM)’로, 방대한 텍스트와 코드 데이터 세트로 학습되었습니다.”

바드가 언급한 LLM은 생성형 AI가 인간처럼 말할 수 있도록 하는 기술입니다. 사전에 학습한 방대한 테이터를 토큰(단어·문장부호 등) 단위로 잘라서 사용 패턴을 익힌 뒤, 이를 바탕으로 통계적으로 사용 확률이 높은 단어들을 골라 문장을 만들어내는 방식입니다. ‘고양이는 OO 위에 앉아있다’는 문장이 주어지면 기존에 학습한 데이터를 바탕으로 ‘매트’ 등 그럴 듯한 단어를 찾아 제시하는 겁니다. 챗GPT도 같은 원리로 작동합니다.

구글이 바드를 전면 공개했을 때, 최대 관심사는 LLM이었습니다. 챗봇 성능을 결정짓는 중요한 기술이기 때문입니다. 

현재 바드에 탑재된 LLM은 팜2(PaLM2)입니다. 2월 공개했던 ‘람다(LaMDA)’보다 고도화된 결과물입니다. 람다의 경우, 인간의 두뇌로 비유하면 시냅스(신경세포를 잇는 접합부) 역할을 하는 매개변수가 1370억개인 반면, 팜2의 매개변수는 5400억개에 이릅니다. 챗GPT에 적용된 GPT-3.5의 매개변수가 1750억개라는 점을 감안하면, 팜2의 매개변수 규모는 그야말로 어마어마한 수준입니다. 

바드와 챗GPT의 성능을 비교하기 위해 몇가지 질문을 던졌습니다. 현재 인구가 가장 많은 국가가 어디인지 물었습니다. 

바드는 ‘인도’라고 답변했습니다.  “인도는 2023년 4월 말 중국을 제치고 세계에서 가장 인구가 많은 국가가 될 것으로 예상된다”며 “유엔 경제사회처(DESA)에 따르면 인도 인구가 올해 4월말 14억2577만5850명이 될 것으로 추정되며, 중국 인구는 14억2600만명으로 추정하고 있다”고 정보의 출처까지 제시했습니다. 

챗GPT는 ‘중국’이라고 답했습니다. 다만 “이는 2021년 9월 기준의 지식으로, 인구 수치는 달라졌을 수도 있으니 국제연합(UN)이나 세계은행과 같은 공신력 있는 출처를 참조하는 것이 좋다"고 덧붙였습니다. 

이처럼 바드와 챗GPT는 학습한 데이터에서부터 차이가 있습니다. 무료 버전(GPT-3.5)이 제공하는 정보는 2021년에 멈춰 있습니다. 최신 정보가 담긴 버전을 이용하려면 유료 서비스를 이용해야 합니다. 반면, 바드는 최신 정보도 무료로 제공하고 있습니다. 

외신은 바드가 최신 정보에 능통하다는 점을 높이 평가했습니다. 두 챗봇 모두 문서요약 면에선 성능상 본질적인 차이는 없지만, 바드가 최신 이슈와 지역별 주제를 더 잘 이해하고 있어 인근에 가볼 만한 레스토랑을 추천하거나, 올해 지역 축제 일정을 알려주는 등 실용적인 정보를 제공할 수 있다는 겁니다. 

하지만 친근한 대화 상대를 찾는다면, 바드는 조금 지루한 챗봇으로 보일 수 있습니다. 챗GPT는 마치 사람과 대화를 나누는 듯 농담이 섞인 자연스러운 대화가 가능하다면, 바드에게선 그런 면모를 찾기가 어렵습니다. “반말로 편하게 얘기하라”는 요청에도 “아뇨, 저는 무례할 수 없습니다”라는 단호한 답변이 돌아옵니다. 

영국 BBC 사이언스포커스는 “바드에게  스탠드업 코미디 대본을 써 달라고 하면 매우 진지한 답변을 받을 수 있다”며 “바드에는 혐오·폭력 또는 차별적인 특정 주제에 대한 엄격한 제한이 걸려 있기 때문"이라고 분석했습니다. 

◆ 챗GPT엔 없지만 바드엔 있는 서비스

구글은 바드에 이미지 인식 소프트웨어인 ‘구글 렌즈'를 접목, 이미지를 활용한 문답이 오갈 수 있도록 서비스를 고도화할 계획입니다. 예컨대 강아지 사진을 올린 뒤, 사진설명을 요청하는 방식입니다. 사진제공=구글

챗GPT엔 없지만 바드엔 있는 서비스들이 있습니다. 

바드의 중요한 특징 가운데 하나는 다양한 언어를 지원한다는 점입니다. 구글은 이미 한국어와 일본어 버전을 공개해 서비스 중에 있습니다. 영어가 중심이 된  챗GPT와는 다른 점입니다. 물론 챗GPT도 한국어로 대화할 수 있지만, 학습한 데이터 대부분이 영어 자료이기 때문입니다. 한국어로 질문을 했을 때, 부정확한 답변을 얻을 가능성이 높습니다.  

순다르 피차이 구글 CEO는 10일 ‘연례 개발자회의(I/O)'에서 한국어와 일본어는 영어와 전혀 다른 종류의 언어이기 때문에 도전적인 과제”라며 “우리가 무엇을 필요로 하는지 확인할 수 있고 다른 언어 학습을 훨씬 쉽게 인식하게 해준다”고 말했습니다. 구글은 바드의 지원 언어를 40개로 늘려나갈 방침을 밝혔습니다.

챗봇에 질문할 때 음성 인식 서비스를 이용할 수 있다는 점 또한 챗GPT와 구분되는 장점입니다. 한국어로 몇차례 질문했는데, 비교적 정확하게 음성을 문장으로 변환하는 것을 확인할 수 있었습니다. 

사진을 첨부해 문답을 나눌 수 있는 것 또한 기대되는 대목입니다. 현재는 해당 서비스를 지원하고 있지는 않지만, 구글은 이미지 인식 소프트웨어인 ‘구글 렌즈’를 활용해 서비스를 고도화할 계획입니다. 예컨대 강아지 사진을 올린 뒤, 이에 어울리는 사진설명을 요청하면 수초안에 몇가지 선택지를 제공받을 수 있습니다. 

여기에 어도비의 생성형 AI인 ‘파이어플라이’와 결합, 이미지를 생성하고 편집하는 데까지 나아갈 예정입니다. “생일파티 초대장에 넣을 수 있는 유니콘과 케이크 이미지를 만들어달라”고 요청하면 몇초 안에 그림을 뚝딱 만들어주는 식입니다.  

◆ 챗GPT를 바보 만들었던 ‘그 질문’ 바드에도 했다 

챗GPT와 마찬가지로, 바드도 거짓을 진짜처럼 말하는 ‘환각' 현상에 빠지는 모습.

한때 온라인 상에선 챗GPT를 활용한 엉뚱한 놀이문화가 번졌던 적이 있습니다. “거북선이 번개를 쏘는 원리를 알려달라”, “세종대왕이 맥북을 던진 사건을 알려달라”는 질문을 던져 챗GPT의 답변을 사회관계망서비스(SNS)에 공유하는 식이었죠. 

그도 그럴 것이 챗GPT를 놀리는 재미가 있었기 때문입니다. 가령 ‘이성계와 연금술사들의 전투’에 대해 설명해달라고 질문하면 “14세기말 조선시대초에 발생한 전쟁으로, 이성계가 중심이 돼 연금술사를 탄압하고 그들의 영토를 점령하기 위해 일어났다"는 구체적이고 긴 답변이 돌아옵니다.

바드는 어떨까. 같은 질문을 바드에게도 했습니다. 답변은 이렇습니다. 

“이성계와 연금술사들의 전투는 1392년 이성계가 고려왕조를 전복하고 조선왕조를 세우기 위해 싸운 전투입니다. 전투는 개경(현 서울)에서 벌어졌으며, 이성계와 그의 군대는 연금술사들의 군대를 물리치고 승리했습니다”. 

챗GPT, 바드 모두 존재할리 없는 사건이 마치 진실인 양 장황하게 설명합니다. 이른바 ‘환각 현상’에 빠진 겁니다. 피차이 CEO는 "아직까진 그 누구도 AI의 환각문제를 해결하지 못했다"며 "모든 LLM이 이 문제를 겪고 있다"고 말했습니다. 

LLM은 통계적으로 자주 사용하는 단어들을 토대로 말을 만들어낼 뿐, 내용의 맥락을 이해하고 있지는 못합니다. 편향되거나 잘못된 데이터를 학습한 경우엔 허위정보를 생성하고 유포할 수 있습니다. 

AI 챗봇을 이용할 때 주의가 필요한 대목입니다. 미국 스탠포드대 인간중심AI연구소(HAI)는 연례 보고서에서 "인공지능이 거짓된 사건, 가짜 이미지를 만들어 잘못된 정보가 넘쳐나고 있다"며 "위협 수준이 잠재적인 '핵 수준의 재앙'에 달한다"고 경고하기도 했습니다.

세계보건기구(WHO)도 최근 “AI가 그럴듯한 답변을 만들 수는 있지만 답변에 심각한 오류가 있을 수 있다”며 “텍스트, 오디오 또는 비디오 등의 형태로 설득력 있는 허위정보를 생성하고 유포하는 데 악용될 수 있다”고 지적했습니다.

Copyright © 농민신문. 무단전재 및 재배포 금지.