美 엔비디아 "인공지능 챗봇 오답 줄이는 소프트웨어 개발"

김태종 2023. 4. 26. 03:27
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

미국 반도체 기업 엔비디아는 25일(현지시간) 생성형 인공지능(AI) 챗봇의 오답을 줄이고 주제를 벗어나는 '환각'(hallucination)을 차단하는 소프트웨어를 개발했다고 밝혔다.

'네모 가드레일'(NeMo Guardrails)이라는 이름의 이 프로그램은 소프트웨어 개발자들에게 AI 모델이 사실과 다른 팩트를 말하거나, 유해한 주제에 대해 답하지 못하도록 하는 데 도움을 준다고 엔비디아는 설명했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

"네모가드레일, 특정 주제에 집중하도록 하고 유해 콘텐츠 차단"
엔비디아 [AFP 연합뉴스 자료사진. 재판매 및 DB 금지]

(샌프란시스코=연합뉴스) 김태종 특파원 = 미국 반도체 기업 엔비디아는 25일(현지시간) 생성형 인공지능(AI) 챗봇의 오답을 줄이고 주제를 벗어나는 '환각'(hallucination)을 차단하는 소프트웨어를 개발했다고 밝혔다.

'네모 가드레일'(NeMo Guardrails)이라는 이름의 이 프로그램은 소프트웨어 개발자들에게 AI 모델이 사실과 다른 팩트를 말하거나, 유해한 주제에 대해 답하지 못하도록 하는 데 도움을 준다고 엔비디아는 설명했다.

이는 전 세계적으로 큰 인기를 끌고 있는 챗GPT 등 AI 챗봇이 가짜 정보를 마치 진짜인 양 제공하고 윤리적으로 문제가 되는 답을 제공하는 등 답변을 둘러싼 논란이 제기되는 가운데 나왔다.

'네모 가드레일'은 챗GPT와 같은 언어 모델 챗봇이 특정 주제에 관해서만 이야기하도록 강제하고 유해한 콘텐츠는 차단한다. 또 대규모 언어 모델(LLM)이 컴퓨터에서 유해한 명령을 실행하지 못하도록 막는다.

조나단 코언 엔비디아 응용 연구 부문 부사장은 "누군가 한 주제에 관해 이야기하면 이 방식으로만 답하라고 스크립트를 작성할 수 있다"며 "언어 모델이 프롬프트나 이용자 지시를 따르지 않을 수 있는데, 이 소프트웨어의 실행 로직은 데이터를 쉽게 변경할 수 없도록 한다"고 설명했다.

엔비디아는 기업 인사 담당자의 질문에 답하는 챗봇의 경우 이 '가드레일'을 실행하면 챗봇이 회사의 재무 성과에 대해서는 답하지 않고, 다른 직원의 개인 데이터에도 접근하지 못한다고 밝혔다.

또 '네모 가드레일'은 대규모 언어 모델을 이용해 다른 언어 모델에게 사실 확인을 요청해 '환각'을 감지하며, 다른 모델이 일치하는 답을 찾지 못하면 "모르겠다"는 답이 돌아온다고 덧붙였다.

'네모 가드레일'은 오픈 소스로, 엔비디아 서비스를 통해 제공된다고 이 반도체 기업은 설명했다.

그래픽처리장치(GPU) 개발 업체로 잘 알려진 엔비디아는 현재 AI 개발에 이용되는 전 세계 반도체 시장의 90% 이상을 장악하고 있다.

taejong75@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?