인간 성격 모방한 AI, 심리 실험에서 인간 대체한다

박정연 기자 2023. 8. 7. 10:27
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

"인간 간 상호작용부터 인간참여자 참여 곤란한 실험에 활용"
인간의 성격과 행동을 모방하는 인공지능(AI)가 과학연구현장에서 인간 실험 참가자를 대체하고 있다. 게티이미지뱅크.

챗GPT 등장으로 사회 전반에 영향력을 높이고 있는 인공지능(AI)이 심리학 연구 현장을 바꾸고 있다. 일부 과학자들은 실제 사람으로 구성된 실험 참가자 집단을 힘들게 구성하지 않아도 AI를 활용해 정교한 가상 실험 참가자 그룹을 구현하고 있다. 일각에서는 윤리적으로 허용하기 어려운 실험도 AI를 활용하면 시행이 가능할 것이라는 예측도 나온다. 

7일 과학계에 따르면 최근 각국 사회심리학자들은 실험 참가자들을 구현할 수 있는 AI 프로그램 개발에 대한 관심이 커지고 있다. 커트 그레이 미국 노스캐롤라이나대 연구원은 인간처럼 도덕적 판단을 내리는 AI프로그램을 개발 중이다. 중간 실험 결과 AI는 윤리적 판단을 내려야 하는 464개 상황에서 평균적인 인간 실험 참가자들의 답변과 거의 일치하는 판단을 내렸다.

연구를 이끈 그레이 교수는 “심리학 실험에서 큰 고민 중 하나는 윤리심사위원회의 심사를 통과하는 것인데 AI를 활용하면 이런 과정에 대한 부담을 덜 수 있다”며 "AI 실험 참가자를 활용하면 응답 데이터를 분석하는 시간도 크게 절약될 수 있다"고 밝혔다. 

● 실험 참가자를 AI로 대체한다

인간을 모방하는 AI 발전은 현재진행형이다. 미국 메사추세츠공대(MIT) 연구팀은 내향성, 외향성 등 성격특성을 조합해 다양한 인간 성격을 가진 수백 개의 AI 가상인격을 개발했다. 이 가상인격들은 실제 사람이 작성한 800단어 분량의 어린 시절 이야기를 바탕으로 가상의 경험과 성격을 형성했다. 
이런 방식으로 만들어진 AI는 다양한 실험에서 인간 참가자들을 대체할 수 있다. 특히 실제 사람에게 실시하기 어려운 실험에 활용될 수 있을 것으로 예상된다. 1961년 스탠리 밀그램 미국 예일대 교수 연구팀이 실시한 유명한 실험인 ‘밀그램 실험’이 대표적인 예다.

피실험자들이 의사의 지시에 따라 다른 실험자에게 점점 더 높은 전기 자극을 가하는 상황을 연출한 이 실험은 현재의 연구윤리 기준에선 허용되지 못하지만 다양한 인간의 사고를 흉내 낼 수 있는 AI가 있다면 윤리적으로 허용되기 어려운 실험도 가능해질 수 있다. 

실제로 미국 올린공대의 한 대학원생이 AI로 밀그램 실험을 재현하자 실제 밀그램 실험 결과와 달리 AI는 강한 전기 자극을 가하는 것을 거부한 것으로 나타났다. 하지만 과학자들은 향후 AI가 인간의 비도덕적인 행동까지 재현할 수 있게 될 것으로 보고 있다. 

● 인간 간 상호작용 연구에도 AI 활용

AI는 인간 간의 상호작용 연구를 위해서도 사용될 수 있다. 지난해 미국 스탠퍼드대와 구글 연구원들은 사회관계망서비스(SNS) 플랫폼 이용자들을 연구하기 위해 ‘소셜 시뮬라크라’라는 이름의 프로그램을 만들었다. 이 프로그램은 대화형 AI 프로그램에게 여러 인터넷 커뮤니티에 주제별로 올라온 게시물들을 입력한 뒤 게시물들을 조합해 서로 다른 1000명의 가상 사용자를 구현했다. 이렇게 만들어진 사용자들이 온라인에서 벌이는 토론은 실제 사용자들이 온라인 게시판에서 논쟁을 벌이는 모습과 구별하기 어려웠다. 실제 사람과 다를 바 없는 언어구사능력은 물론 여러 사람 간에 오가는 대화도 정교하게 재현한 것이다.

연구팀은 현재 실제 사람의 행동을 예측하는 시뮬레이션도 개발중이다. 개발 중인 프로그램에서 구현된 가상의 사람들에게 파티가 열릴 것이라 공지하고 협력을 요청했다. AI가 구현한 가상 인물들은 이들에게 부여된 제각각인 경험과 특성을 반영해 계획을 세우고 행동을 취하는 모습을 보였다. 이 프로젝트를 주도하고 있는 박준성 미국 스탠퍼드대 대학원생은 “이같은 AI 프로그램은 어떠한 정책을 시행하기 전에 가상 세계에서 정책의 효과를 시험할 수 있는 도구가 될 수 있다”고 말했다.

AI가 인간을 완벽히 모방하지 못하는 부분도 있다. 예를 들어 방대한 양의 데이터를 통해 지식을 습득하는 대화형 AI는 자신의 의견이 곧 대다수의 의견이란 확신이 지나치게 강한 측면이 있다. 인간은 자신이 다수의 의견과 상반될지라도 주저 없이 자신의 목소리를 관철할 수 있다는 점에서 AI와 다르다. 다만 과학자들은 AI가 이러한 한계점을 극복하는 데는 오랜 시간이 걸리지 않을 것이라 예측한다. 마르셀 빈츠 독일 막스플랑크 생물인공두뇌학연구소 연구원은 “AI가 인간을 정확히 따라하기 위해선 세계와 상호작용하는 능력이 필요하다”라고 말하면서도 “몇 년 안에 실제 인간의 행동과 완벽히 구별할 수 없이 행동하는 AI 시스템이 나올 것”이라고 전망했다.

[박정연 기자 hesse@donga.com]

Copyright © 동아사이언스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?