“챗GPT, 쓰는 방식 따라 성격 갈린다”…내 유형은?[나우,어스]

정목희 2026. 1. 31. 13:01
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

챗GPT를 사용하는 방식에 따라 이용자의 성격 유형이 나뉜다는 연구 결과가 나왔다.

옥스퍼드대와 베를린 유니버시티 얼라이언스 소속 연구진에 따르면, 챗봇 이용자들은 네 가지 성격 유형으로 분류될 수 있다고 데일리메일이 지난 30일 보도했다.

연구진은 챗GPT가 2020년 11월 30일 공개된 이후 초기 4개월 동안 서비스를 이용한 초기 사용자 344명을 분석했다.

연구진은 이들을 "호기심이 많고 실용적이지만 동시에 경계심도 강한 사용자"로 정의했다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[챗GPT 이미지 생성]

[헤럴드경제=정목희 기자] 챗GPT를 사용하는 방식에 따라 이용자의 성격 유형이 나뉜다는 연구 결과가 나왔다. 옥스퍼드대와 베를린 유니버시티 얼라이언스 소속 연구진에 따르면, 챗봇 이용자들은 네 가지 성격 유형으로 분류될 수 있다고 데일리메일이 지난 30일 보도했다.

연구진은 챗GPT가 2020년 11월 30일 공개된 이후 초기 4개월 동안 서비스를 이용한 초기 사용자 344명을 분석했다. 그 결과, 이용자들은 네 개의 뚜렷한 집단으로 구분될 수 있다고 밝혔다.

①열성 사용자

첫 번째 그룹은 전체의 25.6%를 차지한 ‘AI 열성 사용자’다. 이들은 AI를 적극적으로 활용하며 생산성 향상뿐 아니라 사회적 이점까지 기대한다.

이들은 AI의 실질적 효용을 강하게 신뢰하는 동시에, 챗봇과의 상호작용에서 ‘사회적 존재감’을 느낀다고 응답한 유일한 집단이었다. 연구진은 이들이 AI를 실제 사람처럼 인식하며, 사회적 연결이나 유대감을 충족하는 대상으로 받아들이는 경향이 있다고 설명했다.

또한 이 그룹은 AI의 사회적 장점을 적극적으로 찾고 시스템을 가장 신뢰하는 집단으로, 챗GPT 사용 과정에서 개인정보 노출에 대해 뚜렷한 우려를 보이지 않았다.

②순진한 실용주의자
챗GPT 앱 아이콘 [AP]

두 번째 그룹은 전체의 20.6%를 차지한 ‘순진한 실용주의자’다.

이들은 편의성과 결과를 최우선으로 중시하는 전형적인 ‘효용 중심 사용자’다.

연구진은 이들이 AI의 이점을 개인정보 보호에 대한 우려보다 훨씬 더 중요하게 여기는 경향이 강하다고 분석했다. 실무적·업무적 효용에 대해서는 높은 신뢰를 보이지만, AI 열성 사용자에 비해 사회적 측면에서의 활용도는 낮은 편이다.

③조심스러운 수용자

가장 큰 비중인 35.5%를 차지한 그룹은 ‘조심스러운 수용자’다.

연구진은 이들을 “호기심이 많고 실용적이지만 동시에 경계심도 강한 사용자”로 정의했다.

이들은 AI의 기능적 장점과 잠재적 위험을 지속적으로 비교·평가하며, AI 열성 사용자나 순진한 실용주의자에 비해 개인정보 보호 문제에 대한 우려가 훨씬 크다.

④신중한 탐색자
[데일리메일 캡처]

마지막으로 가장 조심스러운 집단은 ‘신중한 탐색자’다. 이 그룹은 전체의 18.3%를 차지하며, AI 기술의 이점에 대해 여전히 확신을 갖지 못한 사용자들이다.

연구진은 이들을 “AI 세계에 발만 담근 회의적인 사용자”로 설명했다. 이들은 챗GPT의 개인적 효용을 명확히 체감하지 못하고 있으며, 개인정보 문제에 대해 가장 강한 우려를 나타냈다.

흥미로운 점은 네 개 그룹 가운데 세 개 그룹이 개인정보 보호에 대해 심각한 우려를 가지고 있음에도 불구하고, 모두 챗GPT 사용을 계속하고 있었다는 사실이다.

이를 바탕으로 연구진은 AI를 지나치게 인간처럼 묘사하거나 의인화하는 접근이 오히려 역효과를 낼 수 있다고 경고했다. 개인정보에 민감한 사용자들이 문제의 책임을 기업이 아닌 AI 자체에 돌릴 경우, 시스템에 대한 신뢰가 더 빠르게 훼손될 수 있다는 것이다.

연구 책임자인 훔볼트 인터넷·사회연구소의 크리스토프 게를링 박사는 “AI를 사용하는 것 자체는 직관적으로 느껴질 수 있지만, 이를 효과적으로 활용하려면 탐색과 프롬프트 작성 능력, 시행착오를 통한 학습이 필요하다”며 “그만큼 ‘과업과 기술의 적합성’이 과거보다 훨씬 개인에 의존하게 됐다”고 설명했다.

Copyright © 헤럴드경제. 무단전재 및 재배포 금지.