“챗GPT, 쓰는 방식 따라 성격 갈린다”…내 유형은?[나우,어스]
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
챗GPT를 사용하는 방식에 따라 이용자의 성격 유형이 나뉜다는 연구 결과가 나왔다.
옥스퍼드대와 베를린 유니버시티 얼라이언스 소속 연구진에 따르면, 챗봇 이용자들은 네 가지 성격 유형으로 분류될 수 있다고 데일리메일이 지난 30일 보도했다.
연구진은 챗GPT가 2020년 11월 30일 공개된 이후 초기 4개월 동안 서비스를 이용한 초기 사용자 344명을 분석했다.
연구진은 이들을 "호기심이 많고 실용적이지만 동시에 경계심도 강한 사용자"로 정의했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
![[챗GPT 이미지 생성]](https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/31/ned/20260131130149778hhso.png)
[헤럴드경제=정목희 기자] 챗GPT를 사용하는 방식에 따라 이용자의 성격 유형이 나뉜다는 연구 결과가 나왔다. 옥스퍼드대와 베를린 유니버시티 얼라이언스 소속 연구진에 따르면, 챗봇 이용자들은 네 가지 성격 유형으로 분류될 수 있다고 데일리메일이 지난 30일 보도했다.
연구진은 챗GPT가 2020년 11월 30일 공개된 이후 초기 4개월 동안 서비스를 이용한 초기 사용자 344명을 분석했다. 그 결과, 이용자들은 네 개의 뚜렷한 집단으로 구분될 수 있다고 밝혔다.
첫 번째 그룹은 전체의 25.6%를 차지한 ‘AI 열성 사용자’다. 이들은 AI를 적극적으로 활용하며 생산성 향상뿐 아니라 사회적 이점까지 기대한다.
이들은 AI의 실질적 효용을 강하게 신뢰하는 동시에, 챗봇과의 상호작용에서 ‘사회적 존재감’을 느낀다고 응답한 유일한 집단이었다. 연구진은 이들이 AI를 실제 사람처럼 인식하며, 사회적 연결이나 유대감을 충족하는 대상으로 받아들이는 경향이 있다고 설명했다.
또한 이 그룹은 AI의 사회적 장점을 적극적으로 찾고 시스템을 가장 신뢰하는 집단으로, 챗GPT 사용 과정에서 개인정보 노출에 대해 뚜렷한 우려를 보이지 않았다.
![챗GPT 앱 아이콘 [AP]](https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/31/ned/20260131130150023kuuy.jpg)
두 번째 그룹은 전체의 20.6%를 차지한 ‘순진한 실용주의자’다.
이들은 편의성과 결과를 최우선으로 중시하는 전형적인 ‘효용 중심 사용자’다.
연구진은 이들이 AI의 이점을 개인정보 보호에 대한 우려보다 훨씬 더 중요하게 여기는 경향이 강하다고 분석했다. 실무적·업무적 효용에 대해서는 높은 신뢰를 보이지만, AI 열성 사용자에 비해 사회적 측면에서의 활용도는 낮은 편이다.
가장 큰 비중인 35.5%를 차지한 그룹은 ‘조심스러운 수용자’다.
연구진은 이들을 “호기심이 많고 실용적이지만 동시에 경계심도 강한 사용자”로 정의했다.
이들은 AI의 기능적 장점과 잠재적 위험을 지속적으로 비교·평가하며, AI 열성 사용자나 순진한 실용주의자에 비해 개인정보 보호 문제에 대한 우려가 훨씬 크다.
![[데일리메일 캡처]](https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/31/ned/20260131130150279ostc.png)
마지막으로 가장 조심스러운 집단은 ‘신중한 탐색자’다. 이 그룹은 전체의 18.3%를 차지하며, AI 기술의 이점에 대해 여전히 확신을 갖지 못한 사용자들이다.
연구진은 이들을 “AI 세계에 발만 담근 회의적인 사용자”로 설명했다. 이들은 챗GPT의 개인적 효용을 명확히 체감하지 못하고 있으며, 개인정보 문제에 대해 가장 강한 우려를 나타냈다.
흥미로운 점은 네 개 그룹 가운데 세 개 그룹이 개인정보 보호에 대해 심각한 우려를 가지고 있음에도 불구하고, 모두 챗GPT 사용을 계속하고 있었다는 사실이다.
이를 바탕으로 연구진은 AI를 지나치게 인간처럼 묘사하거나 의인화하는 접근이 오히려 역효과를 낼 수 있다고 경고했다. 개인정보에 민감한 사용자들이 문제의 책임을 기업이 아닌 AI 자체에 돌릴 경우, 시스템에 대한 신뢰가 더 빠르게 훼손될 수 있다는 것이다.
연구 책임자인 훔볼트 인터넷·사회연구소의 크리스토프 게를링 박사는 “AI를 사용하는 것 자체는 직관적으로 느껴질 수 있지만, 이를 효과적으로 활용하려면 탐색과 프롬프트 작성 능력, 시행착오를 통한 학습이 필요하다”며 “그만큼 ‘과업과 기술의 적합성’이 과거보다 훨씬 개인에 의존하게 됐다”고 설명했다.
Copyright © 헤럴드경제. 무단전재 및 재배포 금지.
- 차은우도, 母도 징역 가능성? “고의 속임수 드러나면” 200억 탈세 의혹에 변호사 ‘경고’
- “너무 실망이다” “진짜 불쾌하다” 난리더니 결국…충격적 추락
- ‘나홀로집에 케빈母’ 인기 여배우, 71세로 사망…“시간 더 있는 줄 알았는데” 컬킨 애도
- “허리에 좋다해서 ‘지네침’ 맞았다가” 아무도 몰랐다…끔찍한 결과, 그날 무슨 일이
- “국가 위해 일하던 요원 10명 줄줄이 사망” 명단 넘긴 ‘최악의 배신자’, 놀라운 정체[이원율의 후암동 미술관-올드리치 에임스 편]
- SK하이닉스 ‘90만 돌파’에…“전원주, 수익률 4200% 넘어” 장기투자 ‘화제’
- “딱 이틀 먹었을 뿐인데” 나쁜 콜레스테롤 뚝 떨어뜨린 ‘리셋’ 식단
- “걸리면 75% 사망, 치료제 없어”…‘이 병’ 확산에 초비상 걸렸다
- 189명 탄 제주발 티웨이항공 여객기, 이륙 7분만에 긴급회항…무슨 일?
- 김태희 친언니, 수십억 아파트 압류됐다가 해제…“김태희와 전혀 관련 없어”