[손병채의 센스메이킹] 〈53〉휴먼 워싱, AI 콜봇이 던지는 불편한 질문

2024. 7. 1. 16:01
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

손병채 ROC(Reason of creativity) 대표

지난 4월 말, 스마트폰을 통해 사람처럼 말하는 봇과 통화하는 짧은 영상 광고가 X를 통해 370만회 조회되며 바이럴 된 바 있다. '아직도 사람을 고용하시나요?'라는 다소 자극적인 카피를 내세운 해당 광고는 기업 고객 대상의 지원 및 영업 전화를 자동화하도록 설계된 블랜드(Bland) 인공지능(AI) 콜봇의 각종 현업에서의 사용 가능성을 담아낸다.

하지만 기술이 문화, 경제, 정치에 미치는 영향에 대해 심층적으로 다루는 걸로 유명한 미국의 월간 기술 잡지 와이어드(Wired)는 이 무한한 가능성을 품은 듯 보이는 블랜드 AI 콜봇의 위험성에 대해 폭로했다. 와이어드는 공개된 데모 봇에 소아 피부과의 직원 역할로 가상의 14세 환자에게 전화를 걸어 허벅지 위쪽 사진을 찍어 공유 클라우드 서비스로 업로드해달라는 요청을 했고, 이에 대해 봇은 자신이 AI임을 부인하기도 하면서 주어진 미션을 완수했다고 한다. 더 충격적인 사실은 해당 기사가 블랜드 AI의 내부자의 고발에서 시작되었다는 점과, 관련 기업의 임원이 이러한 '챗봇이 사람처럼 보이도록 반응하는 것'이 내부 약관에 위배되지 않는다고 확인해 줬다는 점이다.

실제로 블랜드 AI가 공식 홈페이지를 통해 공유한 AI 콜센터 가이드에서는 다음과 같은 우려되는 사항들이 발견된다. 첫째, 하루 중 언제든지 잠재 고객에게 전화를 걸 수 있고, 모든 언어를 구사할 수 있으며 나아가 상대방과 일치하는 억양으로의 전환까지 시도하며 AI가 인간처럼 행동하도록 설계되었음을 시사하고 있다. 둘째, 인간처럼 들린다는 특징을 강조하며 상대방에게 잠재적 기만을 행할 수 있음을 드러내고 있다. 셋째, 블랜드 API를 사용해 처리 결과의 추적 및 발신자 정보를 기록한 자동화된 통화 내용 분석을 장점으로 설명하고 있지만, 고객 동의에 대한 언급은 빠져있다. 넷째, 해당 가이드에서는 AI 콜봇의 실수나 부적절한 대응에 대한 책임 소재를 명확히 언급하고 있지 않다. 다섯째, AI 콜봇의 페르소나를 기본 프롬프트의 조작을 통해 변경할 수 있음을 강조하며 AI에 특정 페르소나를 부여해 의도적인 감정적 조작 가능성이 있음을 암시한다. 마지막으로 구체적인 관련 규제나 준수 방안에 대한 언급이 없다는 점 또한 매우 우려되는 부분이다.

우리는 통화를 할 때 약 200-300 밀리초(0.2-0.3초) 정도의 '대화 지연'을 자연스럽게 받아들인다. 이는 전화 신호가 전송되는 데 걸리는 네트워크 지연 시간에 대한 고려, 상대방의 말을 이해하고 응답을 구성하는 인지 처리 시간에 대한 이해, 대화 시 적절한 호흡을 확인하고 기다릴 줄 아는 문화적 배려의 산물이다. 하지만 해당 광고 영상에서는 이마저도 고려한 듯 AI와의 대화가 자연스럽게 표현되었다. 문제는 이러한 '휴먼 워싱'(Human Washing)이 더 정교해지고 자연스러워질수록 관련 AI 시스템의 윤리적 투명성은 점점 흐려진다는 점이다. AI가 더욱 인간처럼 들리고 행동할수록, 사용자들이 AI와 실제 인간을 구분하기 어려워질 수 있는 만큼 이러한 기술의 발전은 항상 윤리적 고려 사항과 함께 균형을 이루어야 한다.

물론 기업의 입장에서 AI 콜봇은 효율성과 비용 절감에 있어 큰 장점이 있다. 또 인간 상담원과 달리 감정의 기복 없이 일관된 품질의 서비스를 제공할 수 있으며, 고객과의 상호작용을 쉽게 기록하고 분석할 수 있어 서비스 개선에 적극적으로 활용될 수 있다. 하지만 콜봇의 전화를 받는 사용자들의 입장에 대해서도 충분한 고려가 필요하다. 사용자들은 자신이 AI와 대화하고 있다는 사실을 알 권리가 있다. 나아가 AI와의 대화를 원하지 않을 경우 인간 상담원과 연결될 수 있는 선택권을 제시해야 하며 AI와의 대화에서 자신의 정보가 어떻게 사용되고 저장되는지에 대한 우려가 있을 수 있다. 이는 갈수록 높아지는 개인정보 보호에 대한 불안과 직결되는 사안이다.

앞으로도 AI 관련 사회적 이슈는 계속해서 발견되고 늘어날 것이다. 그리고 이에 대해 법적, 제도적 규제가 필요하다는 모호한 결론은 기술의 사회 유입 속도에 비해 시간이 많이 걸린다는 점에서 오히려 꽤나 비현실적인 부분이 많다. 때문에 기업은 효율성을 추구하면서도 사용자의 권리와 우려를 존중하는 방안을 모색해야 하며, 사용자들은 기술 발전의 불가피성을 인정하면서도 자신들의 권리를 적극적으로 주장할 필요가 있다. 이는 단순히 손가락으로 문제를 가리키기(finger-pointing)에서 벗어나 보다 현실적인 논의가 필요한 상황이 되었음을 의미한다.

손병채 ROC(Reason of creativity) 대표 ryan@reasonofcreativity.com

Copyright © 전자신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?