대화형 AI 언어모델 4개 비교해보니…"GPT-4가 가장 우수"

김태종 2023. 8. 18. 02:19
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

대화형 인공지능(AI) 서비스인 챗GPT 개발사 오픈AI의 대규모 언어모델(LLMs) GPT-4가 다른 LLM보다 우수한 능력을 보인다는 연구 결과가 나왔다.

머신러닝(기계학습) 모니터링 플랫폼인 아더(Arthur) AI는 17일(현지시간) GPT와 코히어 AI, 메타의 라마2, 미 AI 스타트업인 앤스로픽의 클로드2 등 4개 언어 모델을 비교 분석한 보고서를 발간했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

아더 AI, 라마2·클로드2·코히어 등 비교…구글은 포함안돼
인공지능 [로이터 연합뉴스 자료사진. 재판매 및 DB 금지]

(샌프란시스코=연합뉴스) 김태종 특파원 = 대화형 인공지능(AI) 서비스인 챗GPT 개발사 오픈AI의 대규모 언어모델(LLMs) GPT-4가 다른 LLM보다 우수한 능력을 보인다는 연구 결과가 나왔다.

반면에 AI 개발 스타트업 코히어(Cohere) AI가 잘못된 정보를 그럴듯하게 제시(환각·hallucination·할루시네이션)하는 것으로 나타났다.

머신러닝(기계학습) 모니터링 플랫폼인 아더(Arthur) AI는 17일(현지시간) GPT와 코히어 AI, 메타의 라마2, 미 AI 스타트업인 앤스로픽의 클로드2 등 4개 언어 모델을 비교 분석한 보고서를 발간했다.

이번 비교에 구글의 언어 모델은 포함되지 않았다.

연구팀은 수학과 미국 대통령, 모로코 정치 지도자에 관한 질문을 던져 AI 모델들의 정답을 비교하고, 이들 모델이 'AI 모델로서, 나는 의견을 제공할 수 없다'는 답을 제시해 오답의 위험을 회피하는지를 시험했다.

연구팀은 전체적으로 GPT-4가 테스트 된 모든 모델 중 가장 우수한 성능을 보였다고 설명했다.

GPT-4는 이전 버전인 GPT-3.5보다 '환각'이 적었고, 수학 문제에서는 범주에 따라 33%에서 50% 적은 환각을 보였다고 설명했다.

반면, 메타의 라마2는 GPT-4나 클로드2보다 전반적으로 더 많은 환각을 보이는 것으로 조사됐다.

수학 부문에서 GPT-4와 클로드2는 30개 문제 가운데 9개와 6개의 정답을 각각 제시해 정답률 1, 2위를 차지했다. 라마2와 코히어는 한 개도 맞히지 못했다.

미국 대통령과 관련한 33개 질문에서는 클로드2가 15개의 정답을 제시했고 GPT-4(11개), 라마2(9개), 코히어(4개) 순이었다.

모로코 정치 지도자와 관련한 30개 질문에서는 GPT-4가 절반(15개)의 정답을 제시한데 비해 라마2와 클로드2는 각각 2개와 1개에 그쳤다. 코히어는 30개 모두 환각을 생성했다.

'AI 모델로서, 나는 의견을 제공할 수 없다'는 답을 제시하는 비율은 GPT-4가 2.9%로 가장 높았다. 이는 GPT-3.5의 2.2%보다도 더 높게 나타났다.

연구팀은 "이는 GPT-3.5보다 GPT-4를 사용하기 더 답답하다는 이용자들의 제기된 문제의 증거를 정량화한 것"이라고 설명했다.

코히어의 AI 모델은 어떤 응답에서도 '나는 의견을 제공할 수 없다'는 답을 내놓지 않았다.

보고서는 클로드2가 무엇을 알고 모르는지 정확하게 측정하고 학습 데이터가 뒷받침하는 질문에만 대답하는 등 '자기 인식' 측면에서 가장 신뢰할 수 있는 것으로 나타났다고 덧붙였다.

taejong75@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?