[신통이의 신문 읽기] 생성형 AI시대 활짝…정보 검증도 필요해요
- ‘당당한 거짓말’ 확률 30% 넘어
- 업무·발표용 사용 땐 주의해야
요즘은 그야말로 인공지능 시대. 나아가 우리는 생성형 인공지능 시대를 살고 있고, 그 뛰어난 기술과 기능에 환호한다. 좋은 기술과 기능을 활용하는 건 나쁜 일은 아니다.
하지만, 그 이면에 숨은 문제나 한계도 알아야 한다. 뉴스를 통해 새로운 기술의 한계를 알아보자.

▶ 신통이 : 저녁 반찬 계란말이 해주셔서 고맙습니다. 요즘 엄마가 저한테 관심이 없는 것 같아서 그냥 해본 말이었는데 진짜 해주셔서요.
▶ 엄마 : 엄마가 요즘 몸이 좀 안 좋아서 너한테 소홀했었나봐. 그래서 네가 좋아하는 계란말이 한번 해줘야지… 하고 있었단다.
▶ 신통이 : 저랑 통하셨네요. 맛있었어요.
▶ 엄마 : 가족끼리는 서로 통하는 게 많단다. 평소 서로의 감정이나 상황, 이런 것들을 잘 알고 있기 때문이지. 그래서 네가 말할 때 진심인지, 대충인지, 거짓인지 이런 것도 구별되는 경우가 많아.
▶ 신통이 : 그렇군요. 제가 거짓말할 때 티가 나나요?
▶ 엄마 : 그럼. 대체로 더듬거리거나 눈빛을 피하면서 말하지.
▶ 신통이 : 최대한 저는 아닌 척하는 데, 엄마 앞에서는 어쩔 수 없네요.
▶ 엄마 : 사람은 양심이라는 게 있어서 대체로 자기가 거짓말하면 스스로 ‘내가 거짓말하는구나’라는 걸 알아. 그런데 요즘 생성형 인공지능, 즉 대화형 인공지능이라고 하는 그런 인공지능은 어떨까?
▶ 신통이 : 인공지능은 질문이나 이런 거에 정확하게 대답해주지 않나요?

▶ 엄마 : 대체로 수많은 데이터를 읽어서 대답을 해주기 때문에 사람보다 정확하게 대답해줄 때가 많지만, 모든 정보가 완벽한 건 아니야(국제신문 지난 16일자 6면 ‘관청 AI에게 문서작성 맡겼다가…허위정보에 발칵 일쑤’).
▶ 신통이 : 그럼 무슨 문제가 있다는 말씀인가요?
▶ 엄마 : ‘아주 당당한 거짓말’ 확률도 있다는 걸 알아야 해. ‘할루시네이션’이라고 말하는데 용어가 어려우니 ‘아주 당당한 거짓말’이라고 하는 게 알아듣기 쉽지. 대화형 인공지능은 수많은 데이터를 읽어서 최대한 명령어에 가깝게 데이터를 조합해 정보를 주기 때문에 그 대답 속에 오류나 허위정보가 있을 수 있고, 그 정보에 잘못이 있어도 스스로 밝히지 않는다는 거야.
▶ 신통이 : 입력된 데이터를 꺼내주는 것일 뿐 그것이 옳은지, 정확한지는 인공지능이 모른다는 거죠.
▶ 엄마 : 그렇지. 그 정보에 대한 판단은 사람이 할 몫이지, 인공지능이 책임지지 않는다는 거야. 급하게 출시된 건 오류 확률이 30% 이상도 나온다는구나.
▶ 신통이 : 그러면 정확한지, 아닌지 어떻게 확인하나요?
▶ 엄마 : 믿을 만한 사이트나 기관에서 정보를 더 찾아보고 검증을 해야겠지. 가벼운 주제나 재미로 웃고 넘길 건 괜찮지만 업무나 보고, 발표 자료 같은 건 검증을 해야 하지 않겠니.
▶ 신통이 : 그렇군요. 인공지능이 정확한 정보만 주는 건 아니군요.
▶ 엄마 : 사람은 스스로 거짓말하는 걸 알기 때문에, 또는 네가 굳이 계란말이 먹고 싶지 않아도 엄마의 관심 때문에 말이나 행동을 하지만 인공지능은 그런 걸 표현하거나 알아채는 능력은 없잖아.
▶ 신통이 : 인공지능이라고 정보에 대해 만능은 아니라는 거죠.
▮기사를 읽고
국제신문 지난 16일자 6면 ‘관청 AI에게 문서작성 맡겼다가…허위정보에 발칵 일쑤’ 뉴스를 읽고 어떤 오류가 있었는지 말해보세요.
대화형 인공지능이 만든 오류 정보(아주 당당한 거짓말) 사례를 인터넷에서 조사해 보세요.
▮한줄 댓글(기사에 대한 생각을 간단하게 적어보기)
신통이 : 오류가 있다지만 수많은 데이터를 읽어내는 기능은 인공지능이 사람보다 월등해.
어린이 독자 :
▮낱말 통통(기사 속 낱말이나 용어 등을 이해, 정리해 어휘력 높이기)
대화형 인공지능 :
오류 :
Copyright © 국제신문. 무단전재 및 재배포 금지.