
요즘 구글 AI 관련 이야기가 다시 나오고 있는데요, 그중에서도 최근 특히 많이 언급되는 수자가 하나 있습니다. 바로 "환각률 91%"입니다. 말이 조금 어려워 보일 수 있는데요. 먼저 이렇게 생각해 보면 이해가 쉽습니다. 시험에서 문제를 잘 모르는데도, 괜히 빈칸을 두기 싫어서 아는 척하고 답을 적어본 적 있지 않나요? AI도 비슷한 행동을 했다는 이야기입니다.
구글의 최신 AI 모델인 제미나이3 플래시가 모르는 질문을 받았을 때도 멈추지 않고, 그럴듯한 답을 만들어낸 경우가 많았다는 분석이 나왔습니다.

AI를 쓰다 보면 이런 경험이 있습니다. 질문을 하면 바로 답이 나오고, 말도 자연스럽습니다. 그래서 "아, 맞겠구나" 하고 그냥 넘어가게 됩니다. 그런데 나중에 다시 보면 "이게 정말 맞는 말이었나?" 하고 헷갈릴 때가 있습니다.
이번 환각률 91% 논란이 바로 이런 부분 때문에 나왔습니다. 제미나이3 플래시는 아는 질문에는 잘 대답합니다. 문제는 모르는 질문을 만났을 때도 태도가 거의 똑같다는 점입니다. 알 때도 같은 말투, 모를 때도 같은 말투로 말하다 보니 사용자는 구분하기가 쉽지 않습니다. 그래서 더 찜찜해집니다. 틀려서 불안한 게 아니라, 맞는 것처럼 보여서 더 헷갈리는 상황이 되는 겁니다.

AI가 가끔 틀린 말을 하는 건 새로운 이야기는 아닙니다. 하지만 이번에 문제가 된 건 틀리는 방식입니다.
"잘 모르겠다"거나
"확실하지 않다"고 말하기보다는,
마치 정답인 것처럼 말하는 경우가 많았다는 점이죠. 다른 AI들도 완벽하지는 않습니다. 그래도 모를 때는 말을 아끼는 경우가 비교적 많습니다. 반면 제미나이3 플래시는 일단 답부터 내놓는 느낌을 준다는 평가가 나왔습니다. 여기서 중요한 건 사용자입니다. 우리는 AI를 검색처럼 씁니다. 숙제할 때, 궁금한 거 찾을 때, 빠르게 보고 그대로 믿는 경우가 많습니다.
AI는 멈추지 않고 말하고, 우리는 그 말을 그냥 믿어버립니다. 이게 계속 반복되면, 나중에는 뭐가 맞고 틀린 지 헷갈릴 수밖에 없습니다.

이번 논란이 "AI를 쓰면 안 된다"는 뜻은 아닙니다. 다만 지금처럼 아무 생각 없이 믿고 쓰는 건 조심할 필요가 있다는 이야기입니다. AI는 정답을 알려주는 선생님이라기보다, 참고용 도우미에 가깝습니다. 힌트를 주는 친구 정도로 생각하는 게 맞습니다. AI를 만드는 사람들도 이 문제를 알고 있습니다. 모를 때는 모른다고 말하게 만드는 방법을 고민 중이라고 합니다. 하지만 너무 자주 "모른다"고 하면 사용자는 불편해질 수도 있습니다.
그래서 지금 우리에게 필요한 건 AI를 무조건 믿지도, 무조건 의심하지도 않는 태도입니다. 환각률 91% 논란은 AI가 얼마나 똑똑한지를 보여주는 숫자가 아니라, 우리가 AI를 어떻게 써야 하는지 알려주는 신호에 가깝습니다. AI의 말이 자연스럽게 들릴수록, "이거 맞을까?" 하고 한 번 더 확인해 보는 습관. 지금은 그 정도가 딱 좋은 거리인 것 같습니다.