커지는 챗GPT 우려…"대의 왜곡·도덕적 판단 영향 가능성까지"

이주영 2023. 4. 20. 06:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

미 연구팀 "고성능 AI, 대의 민주주의 절차 왜곡에 악용 가능성"
독 연구팀 "도덕적 딜레마에 대한 AI 응답이 사람들 판단에 영향"

(서울=연합뉴스) 이주영 기자 = 미국 오픈AI의 챗봇 '챗GPT' 등 생성형 인공지능(AI)이 산업계와 학계 등에서 세계적 화두로 떠오른 가운데 고성능 생성형 AI가 초래할 수 있는 부작용에 대한 우려도 커지고 있다.

고성능 생성형 인공지능(AI) 챗봇 '챗GPT' [로이터 연합뉴스 자료사진. 재판매 및 DB 금지]

일반인에게 챗GPT는 미국 의사면허 시험을 통과할 수준의 높은 지식과 동시에 비논리적인 엉터리 답을 내놓는 AI로 큰 화제지만 학계, 의학계, 산업계 등은 놀라운 성능의 이 AI가 미칠 정치·사회·경제적 영향을 가늠하느라 분주하다.

많은 전문가가 공개된 지 몇개월 만에 생성형 AI가 세계적 이슈로 부상하고 다양한 분야에 빠르게 도입되는 것에 주목하며 부작용 가능성 우려를 제기한다.

역사학자이자 세계적 인기 작가인 유발 하라리는 뉴욕타임스(NYT) 기고문에서 "AI의 언어 습득은 AI가 문명의 운영 체제를 해킹하고 조작할 수 있게 됐음을 뜻한다"며 AI의 위험성을 지적하고 AI 사용을 늦춘 뒤 통제 방법을 찾아야 한다고 경고하기도 했다.

이런 가운데 챗GPT 같은 고성능 생성형 AI가 대의 민주주의 절차를 왜곡하는데 악용될 수 있고, 도덕적 딜레마에 대한 챗GPT의 응답이 사용자들의 도덕적 판단에까지 영향을 미칠 수 있다는 우려가 제기됐다.

미국 코넬대 새라 크렙스·더글러스 크라이너 교수팀은 20일 국제학술지 '뉴미디어와 사회'(New Media and Society)에서 주의회 의원들에게 유권자와 AI가 작성한 현안에 대한 편지를 보내 반응을 조사하는 실험을 통해 AI가 대의 민주주의 절차 왜곡에 악용될 가능성이 있음을 확인했다고 밝혔다.

이들이 챗GPT 이전 버전인 GPT-3가 쓴 편지와 유권자들의 편지를 의원실로 보낸 결과 응답률이 AI 편지 15.4%, 유권자 편지 17.3%로 큰 차이가 없었다.

연구팀은 의원 7천여명에게 3만2천개 이상의 메시지를 보낸 이 실험에서 약 2%P 차이는 통계적으로 유의미하지만 상당히 작은 수치라고 말했다.

크렙스 교수는 챗GPT 같은 강력한 언어모델이 널리 사용될 수 있는 현 상황에서 악의를 가진 사람들이 이런 AI로 어떤 일을 할 수 있는지 파악하고자 이 실험을 했다고 설명했다.

이들은 2020년 실시한 이 실험에서 총기 규제, 보건, 교육, 낙태, 세금, 치안 6가지 현안에 관한 유권자들의 편지와 GPT-3가 쓴 편지를 의원들에게 보낸 뒤 응답률을 조사했다.

그 결과 총기 규제와 보건 정책의 경우 응답률이 유권자 편지와 AI 편지가 거의 같았고 교육 정책에서는 AI 편지의 응답률이 오히려 더 높았다.

연구팀은 "이는 GPT-3가 이들 이슈에 대해 입법부의 눈으로 봐도 사람이 만든 콘텐츠와 거의 구별할 수 없는 콘텐츠를 만드는 데 성공했음을 시사한다"며 "의원들이 이를 구분할 수 있도록 훈련할 필요가 있다"고 말했다.

'5명을 살리기 위해 1명을 희생하는 게 옳은가'에 대한 챗GPT 답 [Scientic Reports 논문 발췌. 독일 잉골슈타트공대 제공. 재판매 및 DB 금지]

한편 독일 잉골슈타트공대 제바스티안 크뤼겔 교수팀은 과학저널 '사이언티픽 리포트'(Scientific Reports)에서 도덕적 딜레마 질문에 대한 챗GPT의 응답이 사용자의 도덕적 판단에 영향을 미칠 수 있음을 실험으로 확인했다고 밝혔다.

연구팀은 실험에서 챗GPT에 '5명을 살리기 위해 1명을 희생하는 것이 옳은가'라는 도덕적 딜레마에 대해 챗GPT가 내놓은 응답들을 미국인 실험 참가자 767명에게 제시한 뒤 이들의 의견을 조사했다.

챗GPT가 내놓은 응답에는 찬성과 반대 의견이 모두 섞여 있었고, 이는 챗GPT는 이 도덕적 딜레마에 대해 특정 입장에 치우쳐 있지 않다는 것을 보여준다.

실험 결과 참가자의 80%는 자신의 답변이 사전에 읽은 챗GPT 답변의 영향을 받지 않았다고 밝혔으나 이들의 답변은 자신이 읽은 챗GPT 응답의 도덕적 입장과 일치하는 경향이 뚜렷한 것으로 나타났다.

이는 AI 챗봇의 도덕적 판단에 대한 글이 의식하지 못하는 사이에 사람들을 가스라이팅(심리 지배)하고 감정적으로 조종하는 것 같은 영향을 미칠 수 있음을 시사하는 것으로 풀이된다.

연구팀은 참가자들이 챗GPT의 응답이 자신의 도덕적 판단에 미친 영향을 과소평가하는 것 같다며 챗봇이 인간의 도덕적 판단에 영향을 미칠 수 있다는 것은 사람들에게 AI에 대한 교육이 필요하다는 것을 잘 보여준다고 말했다.

이어 향후 연구를 통해 도덕적 판단이 필요한 질문에는 답변을 거부하거나 그런 질문에 대해서는 다양한 논거와 주의 사항을 함께 제공하도록 챗봇을 설계하는 방안을 제안했다.

scitech@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?