RAG에 RIG 더해 인공지능 환각 없앤다

이승우 2024. 12. 17. 17:42
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

대규모언어모델(LLM)의 대표적 단점인 '환각 현상'을 개선할 수 있는 기술로 검색삽입생성(RIG·Retrieval-Integrated Generation)이 새롭게 주목받고 있다.

이미 활용 단계에 접어든 검색증강생성(RAG)과 결합해 답변의 정확도를 높여줄 것으로 기대된다.

여기에 적용된 RIG 기술은 답변을 생성하는 과정에 필요한 정보를 실시간으로 외부 데이터베이스에서 검색하는 방법이다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

테크 딥다이브
구글, LLM 정확도 향상 위해
검색증강생성에 삽입생성 결합
실시간 정보 반영해 답변 가능

대규모언어모델(LLM)의 대표적 단점인 ‘환각 현상’을 개선할 수 있는 기술로 검색삽입생성(RIG·Retrieval-Integrated Generation)이 새롭게 주목받고 있다. 이미 활용 단계에 접어든 검색증강생성(RAG)과 결합해 답변의 정확도를 높여줄 것으로 기대된다.

17일 정보기술(IT)업계에 따르면 구글은 최근 ‘데이터 젬마’ 시스템에 RIG와 RAG를 결합해 LLM 성능을 향상하는 연구를 진행 중이다. 데이터 젬마는 경량화 LLM인 젬마와 대규모 공공 데이터베이스 데이터 커먼스를 결합해 정보의 정확성을 높이는 것을 목표로 한다.

여기에 적용된 RIG 기술은 답변을 생성하는 과정에 필요한 정보를 실시간으로 외부 데이터베이스에서 검색하는 방법이다. 모델이 답변을 만드는 도중에 스스로 자연어 질의를 생성해 외부 데이터베이스에 물어보고, 검색된 결과를 답변에 바로 삽입한다. 예를 들어 “2023년 서울의 평균 기온이 얼마인가”라고 질문하면 RIG는 답변 생성 과정에서 ‘서울의 2023년 기온 데이터’를 외부 데이터베이스에 물어보고 결과를 답변에 포함한다. 즉각적인 데이터 조회가 필요한 상황에 적합하다.

RAG는 RIG와 비슷하지만 순서가 약간 다르다. RAG는 답변 생성 전에 필요한 정보를 외부 데이터베이스에서 먼저 검색해 프롬프트에 추가한다. 가령 “미국과 중국의 이산화탄소 배출량을 비교해줘”라고 물어볼 때 RAG는 외부 데이터베이스에서 미국과 중국의 이산화탄소 배출량 데이터를 먼저 검색한다. 검색 결과를 프롬프트에 입력해 LLM이 더 정확한 답변을 만들도록 유도한다.

두 방식 모두 외부 데이터를 활용해 응답 정보의 정확성과 신뢰성을 높여준다. 하지만 방식의 특성에 따라 장단점이 존재한다. 실시간 정보를 반영하고 동적인 데이터 요청에 유연하게 대응해야 하는 경우엔 RIG가, 대규모 데이터 세트를 기반으로 정확하고 맥락에 맞는 답변을 생성해야 하는 경우엔 RAG가 더 알맞다.

이승우 기자 leeswoo@hankyung.com

Copyright © 한국경제. 무단전재 및 재배포 금지.