‘가을의’ 채식주의자와 AI 할루시네에션 [AI와 함께하는 세상]

2024. 11. 8. 14:06
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

가을은 독서의 계절. 생성형 AI 챗봇에 ‘가을을 배경으로 한 소설 리스트를 알려달라’고 주문했다. 거기에는 2024년 노벨문학상을 받은 한강의 『채식주의자』를 포함하여 『노르웨이의 숲』(무라카미 하루키), 『앤 셜리』(루시 모드 몽고메리), 『가을의 전설』(짐 해리슨), 『리스본행 야간열차』(파스칼 메르시어), 『추억의 빛깔』(리차드 예이츠), 『무정』(이광수), 『나무들의 속삭임』(신경숙), 『타인의 방』(최인호) 등이 소개되었다.

MS 코파일럿 AI에서 필자가 생성한 ‘독서의 계절’ 이미지
이어서 “한강의 소설 『채식주의자』에서 가을은 어떻게 묘사되었는가?”라고 다시 질문을 던졌다. 생성형 AI 챗봇에는 “소설 『채식주의자』는 아름다운 가을 풍경을 통해 주인공의 삶과 감정을 풍부하게 표현합니다”라고 답하면서 친절하게 출처(sports.chosun.com)를 알려준다(마이크로소프트 코파일럿). 그런데 막상 그 출처를 검색하면 거기에는 이 소설의 배경이 가을이라는 설명이 어디에도 등장하지 않는다. 할루시네이션(hallucination) 현상에 의한 ‘헛소리’다. 어떤 AI 챗봇은 “『채식주의자』는 가을의 쓸쓸한 정서와 인간 내면의 변화를 섬세하게 그린 소설”이라고 답변했는데, 근거에 대해 다시 묻자, “죄송합니다. 배경 계절이 가을이라는 것은 잘못된 정보였습니다. 잘못 분류한 점에 대해 사과드립니다”(엔스로픽의 클로드)라며 스스로 오류를 인정한다.

한편, 챗GPT에서는 『채식주의자』대신 최인호의 『타인의 방』을 가을 배경으로 한 소설로 분류하고 하는데, 가을이라는 근거를 대라고 질문을 던지자 “주인공이 도시 속에서 느끼는 소외감과 고독을 중심으로 진행되며, 가을의 쓸쓸한 분위기가 작품의 정서에 깔려 있습니다”라고 설명한다.

MS 코파일럿 AI에서 필자가 생성한 할루시네이션(앵무새의 헛소리)
생성형 AI의 골칫거리 중 하나인 이른바 ‘헛소리’ 또는 ‘환각’(hallucination)은 여전하다. 생성형 AI 챗봇의 답변은 그저 확률적으로 가장 유사한 말뭉치를 제공하는 ‘확률적 앵무새’에 불과해, 자기도 무슨 말을 하는지 모른다. 이로 인해, 사용자가 챗봇이 안내한 웹사이트를 참고하여 결정을 내렸다가 손해를 입고 배상 책임 문제가 발생하는 사례가 종종 발생하고 있다. 그렇다면 AI 모델에서 할루시네이션으로 인한 오류를 어떻게 줄일 수 있는가?

먼저 ‘검색증강생성’(RAG: Retrieval-Augmented Generation) 기법이 있다. RAG는 마치 시험을 볼 때 위키피디아나 오픈 북을 사용하는 것과 비슷한 원리다. 예상 시험 문제와 답이 들어 있는 노트나 관련 교과서를 참고해 필요한 정보를 바로 찾아 답안을 작성할 수 있다. RAG는 질문과 관련된 최신문서나 웹페이지에서 실시간으로 검색하여 답안의 신뢰도와 정확도를 높여준다. 기존의 방대하게 학습된 정보(온갖 정보의 쓰레기장)에서 답을 찾아내는 방식이 아니라, 관련된 외부 데이터베이스나 문서를 실시간으로 연결하여 답변을 생성하는 방식이다. 예를 들어 RAG 방식을 사용해 채식주의자의 계절 정보를 물어보면, 관련된 서적 또는 뉴스로부터 최신의 정보를 검색하여 제공하므로 정확도는 높아진다.

또 다른 해법으로 소형 언어 모델(SLM: Small Language Model)이 있다. 대형 언어 모델(LLM)은 다양한 출처에서 얻은 방대한 정보를 바탕으로 답변을 제공하기 때문에 헛소리 답변이 자주 발생할 수 있다. 반면, 소형 언어 모델(SLM)은 특정 도메인에 특화하여 학습시키면 불필요한 정보를 줄이고 맞춤형 응답을 제공할 수 있다. 예를 들어, 세계의 지식을 모두 담은 방대한 도서관에서 정보를 찾기보다 특정 주제만 다루는 전문 서적이나 사전을 이용하면 정보의 신뢰도와 정확도가 높아지는 이치다. SLM은 매개변수 크기가 작아 특정 도메인에서 더 효율적으로 작동하고, 작업에 맞춰 최적화할 수 있다. 데이터 처리 속도가 빠르고 실시간 응답이 가능하며, 모바일 환경에서도 원활히 작동할 수 있어 개발 및 유지 비용을 크게 줄일 수 있다.

MS 코파일럿 AI에서 필자가 생성한 챗봇 모델
이 밖에도 인간 피드백 기반의 강화 학습(RLHF: Reinforcement Learning from Human Feedback)은 헛소리를 줄이는 데 유용하다. 인간 피드백을 기반으로 강화학습을 진행함으로써 사실에 맞지 않거나 관련성이 낮은 정보 대신 정확하고 관련성 높은 응답에 보상을 주어 성능을 개선할 수 있다. 또한, 도메인 내 신뢰할 수 있는 특정 데이터 세트를 기반으로 모델을 미세 조정하면 일관성과 정확도가 높아진다. 도메인 특화 미세 조정과 RLHF를 함께 적용하면 헛소리를 줄이고 더 신뢰할 수 있는 정보를 제공할 수 있다.
MS 코파일럿 AI에서 필자가 생성한 ‘독서의 계절’ 가을 이미지
생성형 AI의 헛소리가 노벨상 수상작이나 문학 작품에서 나타나는 것은 ‘세종대왕 맥북 던짐 사건’처럼 웃고 넘길 수 있다. 하지만 이런 오류가 의료, 금융, 국방, 법률 등과 같은 분야에서 발생하면 인명이나 재산에 치명적인 결과를 초래할 수 있다. 한 치의 오류도 허용될 수 없는 영역이다. 앞서 보았듯이 여러 해법이 있지만, 전문적인 지식이나 통찰력을 가진 ‘인간의 피드백’은 언제나 귀중하다. 인간은 늘 사색하고 학습하면서 남다른 통찰력과 전문성을 키워왔다. 적은 정보만 줘도 창의적으로 문제를 해결하는 만물의 영장이다. RAG(검색증강생성)이나 SLM(소형 언어 모델)과 같은 새로운 해법을 생각해내는 것은 바로 AI가 아닌 인간이다. 인간의 사색은 ‘AI 할루시네이션’을 줄이는 원천적인 힘이다.

인류는 오랫동안 사색하기보다는 검색에 의존해 왔고, 이제는 검색조차 귀찮아져 인공지능 프롬프트를 통해 명령하는 시대에 접어들었다. 그러나 독서의 계절인 가을에는 검색이나 명령보다 깊은 사색이 더 잘 어울리지 않을까? 인공지능이 아무리 발전하더라도, 사색하는 인간의 향기와 그 가치는 언제나 위대하다.

[여현덕 카이스트 G-School 원장/기술경영대학원 교수]

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?