AI가 '복지 사각지대'를 찾아낼 수 있을까
전화벨이 울렸다. 기자는 전화를 받았다. “여보세요.” “안녕하세요, 변진경님 맞으시죠?” 젊은 여성 목소리였다. 아래는 그녀와 기자가 전화로 나눈 음성 대화 내용이다.
그녀: 안부 확인차 전화드렸어요. 그동안 끼니 거르시지 않고 식사 잘 하셨나요?
나: 네.
그녀: 다행이네요, 오늘은 뭐 드셨어요?
나: 감자탕이요.
그녀: 오, 맛있으셨겠어요. 저도 먹고 싶네요.
나: 네(웃음).
그녀: 오늘 기분은 어떠세요?
나: 별로 좋진 않아요.
그녀: 왜요? 무슨 일 있으세요?
나: 그냥 여러 가지로….
그녀: 힘내세요, 곧 좋아지실 거예요.
나: 네….
그녀: 혹시 고민거리나 걱정거리 있으세요?
나: 음… 요새 날씨도 추워지고 해서 코로나 걱정도 되고요.
그녀: 맞아요. 요즘 코로나 때문에 걱정이 많으시죠. 마스크 꼭 착용하시고 손도 자주 씻으세요.
1분30초간 식사, 기분, 건강, 고민에 관한 대화가 이어졌다. 발신자는 기자의 이야기에 공감을 전하고, 염려를 표하고, 조언을 건넸다. 말하는 중간 뜸을 들이면 간혹 성급히 다음 질문을 건네는 경향이 있긴 했지만 그녀는 전반적으로 상냥하고 다정했다. 컨디션이 안 좋다거나 잠을 잘 못 잤다는 이야기에 걱정스러운 목소리로 안타까워했고, 속이 더부룩한데 어떤 병원을 가야 할까 물으니 내과나 가정의학과가 좋겠다고 알려주기도 했다. 누군가 내 안부를 묻고 염려해주니 기분이 꽤 괜찮았다. 다만 그녀는 사람이 아니다. 인공지능(AI)이다. 기자는 네이버 측이 〈시사IN〉 취재를 위해 테스트용으로 제공해준 AI 전화 돌봄 서비스 ‘클로바 케어콜’의 AI 상담사와 대화를 나누었다.
AI 상담 서비스 자체는 새로운 게 아니다. 네이버뿐 아니라 SKT, KT, 카카오 등 여러 ICT 기업이 AI 음성인식과 발화 기능을 활용한 상담 서비스 솔루션을 개발했다. 이 기술은 이미 다방면에 널리 활용되고 있다. 식당이나 미용실을 예약할 때, 명절 선물 주소 입력이 필요할 때, 코로나19 확진자 증상이나 백신 이상반응을 모니터링할 때, 민방위교육과 지방세 납부 고지서를 통지할 때 등 많은 사례에서 인간 상담사의 목소리를 입은 AI가 전화를 걸어 인간과 정보를 주고받는다.
네이버의 클로바 케어콜은 여기에서 한 단계 더 나아갔다. 정보 교환, 데이터 수집 기능에 더해 위로·공감·지지·격려의 기술을 탑재했다. ‘말벗’ 서비스를 넘어 ‘인간과 정서적으로 유대 관계를 맺을 수 있는 AI’를 지향한다. 지난해 5월 공개한 네이버의 한국어 버전 초대규모 인공지능 언어 모델 ‘하이퍼클로바’가 그 기반 기술이다. 지금까지는 사람과 자연스러운 대화가 이어지려면 AI에게 발생 가능한 시나리오를 일일이 학습시켜야 했다. 약 복용, 병원 일정 알림, 날씨 등 미리 설정된 세부적인 주제 안에서 ‘예, 아니요’ 식의 단답형 대화가 가능할 뿐 그에 벗어나는 이야기에는 “무슨 말씀인지 잘 모르겠어요”와 같은 반응이 나오기 일쑤였다.
사람을 닮아가는 AI 상담
하이퍼클로바 AI 모델에서는 몇 가지 예시만 넣어주면 이후 광범위하게 뻗어나가는 자유 주제 대화가 가능해졌다. 예를 들어 첫 문단에서 소개한 기자와 AI의 대화에서, 기자가 “코로나가 걱정된다”라고 했을 때 AI는 그 맥락에 맞는 응답 후보를 스스로 15만 건 정도 생성해낸다. 그 가운데 알맞은 반응을 추리고 판단하는 과정을 거쳐 “요즘 코로나 때문에 걱정이 많으시죠. 마스크 꼭 착용하시고 손도 자주 씻으세요”라는 발화를 실행한다.
‘기억하기’도 핵심 기능 중 하나다. 케어콜의 AI는 지난번 대화에서 얻은 정보를 기억해 다음번 대화에서 상담 대상자의 안부를 물을 때 활용한다. “저번에 자전거 타다가 다치셨다고 하셨죠?” “참, 저번에 입맛 없다고 하셨는데 요새는 좀 어떠세요?” “병원에는 계속 입원해 계신 거예요?” “지난번에 혈압 때문에 병원 다녀온다고 하셨는데 지금은 좀 어떠세요?” 모두 AI가 실제 상담 중 생성한 문장이다.
여기에 케어콜 개발팀은 ‘추임새’나 ‘공감 표시’ ‘잔소리’ 같은 요소를 가미했다. AI 상담사는 마치 사람처럼 “아이고” “저런” “우와” 같은 감탄사를 적절히 쓰고 “그러셨군요” “다행이네요” “힘드셨겠어요”라며 공감을 표시하고, “식사는 꼭 잘 챙겨 드셔야 해요” “병원은 꼭 가보시는 게 좋아요” 등 가벼운 잔소리도 종종 한다. 이렇게 똑똑하고 상냥하고 배려 깊은 AI는 바쁘지도 않고 지치지도 않는다. 언제든지, 얼마든지, 다량의 이용자들에게 늘 변함없는 목소리와 서비스 정신으로 안부 확인과 일상 대화가 가능하다.
그렇기 때문에 클로바 케어콜은 현재 공공부문의 사회복지·돌봄서비스 분야에서 빠르게 활용이 확산되고 있다. 외로운 사람들을 최대한 자주 접촉하고 관리할 필요가 있지만 제한된 인력과 시간으로 어려움을 겪는 곳이다. 지난해 4월 부산 해운대구에서 첫 시범사업을 진행한 이후 현재(2022년 9월)까지 서울 8개 구, 경기 고양시, 인천·대구 전 지역, 전북 남원시 등 전국 30여 개 시군구에서 클로바 케어콜을 지역 내 노인 돌봄과 고독사 방지 등에 활용하고 있다. 독거노인, 1인 가구, 치매 경증환자 등 사회적 고립이 우려되는 취약계층 가운데 서비스 제공에 동의한 사람들 7000명에게 AI 안부 전화가 주 1~3회 정기적으로 가고 있다. 주로 식사·수면·외출·운동에 대해 묻는다. AI 상담 전화에서 위기 신호나 도움 요청이 감지되면 담당 공무원이 추가 통화나 방문을 통해 필요한 조치를 하게 된다.
AI 상담사는 사용 후 만족도 조사에서 꽤 높은 점수를 받았다. 지난 1월 부산 해운대구의 상담 대상자 99명에게 물어본 결과 94.9%가 향후에도 계속 케어콜 안부 전화를 받고 싶다고 답했다. ‘대화가 재미있다’는 문항에 27.3%가 ‘매우 그렇다’, 73.7%가 ‘그렇다’고 평가했다. ‘서비스 이용 후 위로받았다는 느낌이 들었는지’에도 ‘매우 그렇다’라거나 ‘그렇다’는 반응이 89.9%로 나타났다. 김혜리 네이버 클로바 케어콜 기획리더는 “전화 건 목소리가 사람이 아니라는 걸 알면서도 어르신들은 AI와 유대 관계를 형성해갔다. 이름이 뭐냐고 묻거나 ‘추석 때 뭐 했어?’라고 궁금해하기도 했다. 심리적으로도 많이 의존하고 위로받는 분들도 계셨다. ‘목소리만 들어도 너무 반갑다’거나 ‘이 전화가 올 때만 거의 유일하게 말을 한다’고 말씀하시며 우시는 경우도 있었다”라고 말했다.
‘AI 상담사’ 예산 책정한 보건복지부
AI가 안부를 체크하며 얻은 정보가 지자체 담당 부서나 공무원에게 전달돼 실제 복지 지원으로 이어진 사례도 있다. 배가 고픈데 밥을 못 먹고 있다는 대상자에게 도시락 서비스가, 치아가 없어 밥 먹기 어렵다는 대상자에게 틀니가, 무더위에 아무런 냉방장치 없이 견디는 대상자에게 선풍기가 지원되었다.
사회복지·돌봄 부문에 AI 전화 상담을 활용하는 방안은 2023년 중앙정부 사업에도 포함되었다. 8월30일 발표된 2023년 보건복지부 예산안에 따르면, 정부는 복지 사각지대 발굴을 목적으로 ‘AI 복지사’를 도입할 계획이다. ‘복지 대상자의 복지 욕구 파악 등 초기 상담을 수행하는 인공지능 음성인식시스템’ 구축과 운영에 예산 32억원을 배정했다. 보건복지부 관계자는 “복지 사각지대에 있는 사람들을 중앙에서 발굴해 지자체로 내려주려는 취지다. 관련 연구 용역이 끝나는 11월 이후 방향을 더 구체화할 계획이다”라고 말했다.
정부 목표대로 AI 상담사는 복지 사각지대를 찾아낼 수 있을까? 고양시 일산서구보건소 치매안심센터는 지난 4월부터 노인 우울 및 고독사 예방 등의 목적으로 클로바 케어콜을 활용해 어르신들의 안부를 확인하는 전화 서비스를 제공해왔다. 조원희 일산서구보건소 치매안심센터 팀장은 “AI를 활용한 전화 서비스가 지속적으로 업그레이드되고 문제점을 보완해 나간다면 독거 어르신뿐만 아니라 중장년 1인 가구 등 다양한 대상자에게 활용할 수 있을 것 같다. 고독사 예방뿐만 아니라 정서적 지지 역할도 기대된다”라고 말했다. 김혜리 클로바 케어콜 기획리더는 “사회복지사들이 대상자 모두에게 일일이 전화를 돌리느라 소요되던 시간이 경감돼 좀 더 관리가 필요한 사람에게 인력을 집중할 수 있다는 피드백이 많았다”라고 말했다.
AI는 사회복지사를 돕는 것을 넘어 ‘대체’도 가능할까? AI는 (인간)사회복지사를 대신할 수 없고, 대신해서도 안 된다는 게 대다수 사회복지 종사자들의 의견이다. 신용규 한국사회복지사협회 부회장은 “(정부 보도자료에 적힌) ‘AI 복지사’라는 용어 자체에 동의할 수 없다”라고 말했다. “AI를 사회복지 일부 업무에 보조적으로 활용할 수는 있지만, 사람과 사람 사이 소통이 필요한 상담을 대신한다는 건 위험한 발상이다. 결국 사람을 늘려야 할 일에 인력을 안 쓰고 기계로 채우겠다는 발상 아닌가.”
경기도 평택시에서 사회복지 전담 공무원으로 일하는 이정은 주무관(한국사회복지행정연구회 회원권익부장)은 “복지 대상자와의 대화 속에는 반드시 사람이 아니고는 알아차릴 수 없는 것들이 존재한다. 안부를 물었을 때 ‘괜찮아요’라는 말 속에 숨어 있는 비언어적 메시지를 (인간)사회복지사는 기존 맥락과 경험을 바탕으로 감지할 수 있지만 AI는 불가능하다”라고 말했다. 2019년 유엔이 발표한 ‘극빈과 인권에 관한 특별 보고서’는 “알고리즘과 인공지능을 사용한 사회복지의 디지털화는 복지 수혜자에게 필요한 관리와 지원을 제공하는 데 없어서는 안 될 요소인 인적 상호작용과 연민을 거의 전적으로 제거할 위험이 있다”라고 경고하기도 했다.
김윤영 빈곤사회연대 활동가는 AI 기술로 복지 사각지대를 찾아내 문제를 해결하겠다는 발상이 허상에 가깝다고 말했다. “정작 동 주민센터에 도움을 요청하러 오는 사람은 외면하면서 AI로 찾아 나선다는 얘기만 반복하고 있다. 우리나라 사회복지의 문제는 제도의 운영방식과 기술이 아닌 제도의 내용에 있다. 최소주의, 선별주의, 어떻게든 정밀히 가려내 (지원 대상에서) 떨어트리려는 구조 속에서 신기술에 대한 지나친 기대는 실제 제도의 문제를 바라보지 못하게 만든다.” 이현정 성민종합사회복지관 팀장도 “핵심은 발굴이 아니다”라고 말했다. “AI로 취약계층을 잔뜩 찾아낸다 하더라도 담는 그릇이 작으면 복지 사각의 문제는 여전히 남는다.”
AI 기술이 정부 복지정책에 들어가는 과정에서 관료조직의 성과주의, 기술 우선주의, 비용 절감·효율의 논리와 만났을 때의 위험성도 지적된다. AI 노인 돌봄 로봇을 개발해 보급해온 김지희 ㈜효돌 대표는 여러 정부 기관과 협력 사업을 진행하는 과정에서 그 문제를 많이 느꼈다. “AI를 포함한 신기술이 사회복지와 돌봄에 적절히 사용되려면 마치 의료 현장의 임상 과정처럼 막대한 데이터를 쌓고 분석한 뒤 평가하는 과정이 필수적이다. 그런데 실제 의사결정 과정에서는 이게 싸니까, 빨리 실행 가능하니까, 표심에 영향을 주니까 서둘러서 한 번에 보급하기에 바쁘다. 그 기술이 돌봄과 복지라는 원래 목적에 부합하는지 아닌지 제대로 살펴보지도 않고 일단 AI 기술이라고 하면 도입해버리는 오류가 자주 일어난다.”
우석진 명지대 교수(경제학과)는 사회복지 서비스에서의 AI를 의료 부문의 엑스레이나 CT, MRI 등에 비유했다. “CT나 MRI는 분명 병의 진단과 치료에 도움을 준다. 하지만 그렇다고 그것들이 의사가 될 수는 없다. 사회복지 분야도 마찬가지다. AI는 보조지표로서 역할을 해줄 뿐 결국 (인간)사회복지사가 결정하고 판단해야 한다.” 우 교수는 ‘작은 정부’를 지향하는 윤석열 정부에서 나온 ‘AI 복지사’ 아이디어가 “공공부문 사회복지 인력을 줄이려는 명분은 아닌지, 석연치 않은 구석이 있다”라고 말했다.
효과와 부작용에 대한 논의 필요해
이미 세상은 바뀌었다. 인공지능과 로봇은 이제 많은 경우 사람(인력)과 나란히 선택 가능한 옵션으로 놓여 있다. 가게 주문을 받기 위해 종업원을 더 뽑을지 키오스크(무인 정보단말기)를 설치할지, 자녀의 사교육을 위해 과외 선생님을 모실지 AI 맞춤형 교육 소프트웨어를 구매할지 등, AI가 인간을 대체하는 영역은 점차 넓어지고 있다. 그 과정에서 나의 안부를 묻고 걱정하고 위로해주는 ‘AI 복지사’를 둘러싼 기대와 우려는 또 하나의 경계를 뛰어넘는 징후다. 그간 인공지능이 넘보지 못할 거라 여겨지던 정서적 돌봄, 관계, 애정과 신뢰 같은 인간의 고유 영역으로까지 AI의 역할이 뻗어나가고 있다. 이것은 기술이 만들어내는 유토피아일까, 디스토피아일까.
지금은 답을 내리기보다 여러 질문들을 검토할 단계다. 그리고 그 질문은 기술 자체보다 그것을 받아들이는 인간과 사회에 초점이 맞춰져야 한다. 이를테면 이런 질문이다. ‘사회복지 부문에서 진짜 사람처럼 대화하는 AI 상담사를 활용할 때 대상자가 된 취약계층에게 상담사가 실제 사람이 아니라는 사실을 미리 인지시켜줘야 할까? 아니면 꼭 그러지 않아도 될까? 그 각각의 효과와 부작용은 무엇일까?’ 인공지능 정책과 윤리를 연구하는 고학수 서울대 법학전문대학원 교수는 “우리 사회는 아직까지 이런 종류의 주제에 대해 연구된 바도 없고 사회적 논의도 해본 적이 없다. 새로운 기술이 사회에 들어올 때 어떤 관점을 가지고 바라봐야 할지 일종의 사회적 답을 찾는 과정이 필요하다”라고 말했다.
날로 발전해가는 AI 기술을 보며 인간들은 지금껏 물어왔다. ‘AI는 인간의 무엇까지 대체할 수 있을까?’ 이제 질문을 바꿀 시간이다. “AI는 인간의 무엇까지 대체해도 되는가?”
변진경 기자 alm242@sisain.co.kr
▶좋은 뉴스는 독자가 만듭니다 [시사IN 후원]
©시사IN, 무단전재 및 재배포 금지
Copyright © 시사IN. 무단전재 및 재배포 금지.