“그럴듯한데 믿진 못하겠네”…생성형 AI를 떠나는 이유
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
생성형 인공지능(AI) 서비스가 널리 자리 잡으려면 이용자 이탈을 막는 신뢰성 관리가 핵심 과제라는 연구 결과가 나왔다.
정보통신정책연구원(KISDI)은 생성형 AI 서비스의 이용 지속·이탈 요인 등을 분석한 '생성형 인공지능 서비스 채택 선행요인에 관한 탐색적 연구' 보고서를 2일 발간했다.
보고서에 따르면 생성형 AI는 콘텐츠 생성 능력을 앞세워 빠르게 확산되고 있지만 꾸준히 쓰는 이용자는 특정 연령대·직군에 그쳤다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
“답변 불안하다” 68% vs “믿을 만하다” 44%
연구진 “환각현상 관리·투명성 강화 필요”

생성형 인공지능(AI) 서비스가 널리 자리 잡으려면 이용자 이탈을 막는 신뢰성 관리가 핵심 과제라는 연구 결과가 나왔다.
정보통신정책연구원(KISDI)은 생성형 AI 서비스의 이용 지속·이탈 요인 등을 분석한 ‘생성형 인공지능 서비스 채택 선행요인에 관한 탐색적 연구’ 보고서를 2일 발간했다. 전국 17개 지역의 15~69세 남녀 2000명을 대상으로 2025년 9월5~15일 진행한 설문조사 결과와 분석을 담았다.
보고서에 따르면 생성형 AI는 콘텐츠 생성 능력을 앞세워 빠르게 확산되고 있지만 꾸준히 쓰는 이용자는 특정 연령대·직군에 그쳤다.
연구팀이 서비스 이용 이후 단계를 분석한 결과, 이용 지속 여부는 단순한 접근성보다 신뢰·효용 인식과 상호작용 경험에 크게 좌우됐다. AI가 꾸며낸 허위 정보를 사실처럼 제시하는 게 불안하다(68)%는 의견이 적지 않았다. AI가 만든 결과물이 믿을 만하다는 답도 44%에 그쳤다.
개인정보 유출에 대한 우려(65.1%)는 컸다. 작업 시간·노력·비용 절감(81.7%)과 복잡·반복 작업 처리 편의성(82.3%) 등 유용성은 높게 평가됐지만 이같은 불안 요인에 상쇄됐다.
반면 개인화된 응답이나 맥락을 이해하는 대화처럼 정서적으로 교감하는 경험(52%)은 이용 지속에 긍정적인 영향을 미쳤다. 응답자 49.6%는 AI를 사람처럼 대했고, 49.4%는 “단순한 도구를 넘어 업무 동료나 파트너처럼 느낀다”고 답했다. 관련 좌담회에서도 “기계가 사람보다 배신 위험이 적어 안전하다”는 관계적 상호작용 경험도 언급됐다.
주성희 연구위원은 “이용자 경험·인식에 기반한 수요자 중심 정책 설계가 필요한 상황”이라며 “이용자들이 유용성과 불안을 동시에 느끼는 만큼 신뢰할 수 있는 AI 환경 조성이 중요하다”고 말했다.
보고서는 AI 확산을 위한 정책 방향이 ‘기술 보급’에서 ‘경험 관리’로 바뀌어야 한다고 제언했다. 구체적인 방안으로 ▲할루시네이션 관리와 투명성 강화 ▲디지털 리터러시 교육을 통한 기대치 조정 ▲조직 차원의 명확한 활용 기준 마련 등을 제시했다.
Copyright © 농민신문. 무단전재 및 재배포 금지.