[성공예감] AI 면접관은 어떻게 사람을 걸러낼까? - 서울여대 정보보호학과 김명주 교수
■ 인터뷰 자료의 저작권은 KBS 라디오에 있습니다.
인용보도 시 출처를 밝혀주시기 바랍니다.
■ 프로그램명 : 성공예감 김방희입니다
■ 방송시간 : 5월 12일(목) 09:05-10:53 KBS1R FM 97.3 MHz
■ 진행 : 김방희 소장 (생활경제연구소)
■ 출연 : 김명주 교수 (서울여대 정보보호학과)
- 대선 후보들의 AI 캐릭터, 가상인간 등 인공지능 실생활에서 많이 사용
- AI 면접은 채용 비리로 공정성 이슈 되며 도입... 코로나로 AI 비대면 면접 확산
- 면접자의 얼굴, 말투 위주로 평가... 말을 텍스트화해 성향 파악하기도
- AI 면접관의 가장 중요한 기능은 지원자 분류... 평가 기준은 대부분 공개 안 해
- 다양성 인정 않는 등 완전하지 않은 기술, AI 면접 거부하는 이들 배제하는 한계
- 단순 노동을 대체하던 것에서 의사, 판사, 회계사 등 전문직까지도 AI 기술이 잠식
- 가장 우려되는 고착화 문제... 기존 데이터를 학습하기에 편견과 차별 답습할 수 있어
- 데이터와 알고리즘 공정성 고려해야... 미국은 평가 기준 공정성도 매년 체크
- 노년층 AI 스피커 활용 늘어... 다만, 장기적으로는 중독 문제도 제기될 수 있어
- AI 인식 기술은 미국과 중국이 양대 산맥... 우리나라 개인정보 보호법으로 학습 데이터 활용 못하는 곳 많아
- 향후 가상인간, AI 후보 등 활용도 높을 것... 본인의 전문 분야에 AI를 활용해 볼 만
◇김방희> AI 인공지능이라는 말이 지금은 미래 기술 트렌드를 뜻하는 말이 아닙니다. 저희들이 몰라서 그렇지 실제 우리 생활에 굉장히 많이 파고들었습니다. 젊은 세대들 요즘 가장 많이 하는 게 취업 준비생들 AI 면접 어떻게 잘 보지? 노하우 좀 공유해달라는 얘기를 많이 하고요. 또 텔레비전 광고에서 보셨죠. 어르신들은 AI 스피커에 대해서 얘기를 많이 하시죠. 유일한 친구가 그 친구밖에 없다. 이런 얘기들도 많이 하시는데 씁쓸한 얘기기는 합니다마는 어쨌든 채용 현장, 법정, 의료 분야, 전문적인 영역까지 AI가 굉장히 확산되고 있습니다. 구체적으로 각 세대는 또 이런 인공지능 시대에 어떻게 생존해야 되는지 오늘 서울여대 정보보호학과 김명주 교수와 함께 배워보도록 하겠습니다. 김 교수님 어서 오십시오.
◆김명주> 네, 안녕하세요.
◇김방희> AI 전공하시는 분들은 약간 인간미가 떨어질 것 같은데 그렇지는 않군요. 인간적이시던데요.
◆김명주> 네, 고맙습니다.
◇김방희> 이게 일종의 오해가 좀 있는 것 같아요. AI라는 걸 너무 일찌감치 미래 기술의 핵심이라고 배우다 보니까 실제 현장에 많이 파고들고 있는데도 미래 얘기로만 받아들이는 것 같은데 우리 현장에 얼마나 파고들었습니까?
◆김명주> 지금 아마 가장 최근에 우리 전 국민들이 다 느꼈던 것은 아마 대선 때 AI 윤석열, AI 이재봇, 다 대선 후보들이 AI 가상 캐릭터를 내세웠죠. 그것도 있고 텔레비전에 보면 일부 생명회사에서 광고를 할 때 춤을 잘 추는 여자분이 나왔는데 알고 보니 사람이 아니었다. 가상 인간이었다. 이런 것도 있고요. 또 몇 년 전에는 돌아가신 가수분들을 다시 AI가 살려서 그분들이 부르지 않았던 노래를 부르게 하는 그런 프로그램도 있었고 대단히 많습니다.
◇김방희> 그 덕분에 제가 좋아했던 제 또래 김광석이라는 가수가 부활하기도 했었는데 AI가 이룬 일들이죠. 특히 아까 말씀드렸습니다마는 온라인에서는 구직자들, 취업 준비생들이 AI 채용 때문에 상당한 어려움을 겪고 있는 것 같은데 일종의 큰 변화니까.
◆김명주> 큰 변화죠. 아마 미국이나 이런 데는 한 10년 전부터 AI 인터뷰를 사용을 했고요. 우리나라 같은 경우는 사실은 2018년도인가 아마 모 국회의원의 공기업 비리 채용 그래서 공정성 문제가 사회적인 이슈가 됐잖아요. 그래서 그때부터 본격적으로 도입을 시작했는데 결정적인 것은 코로나입니다.
◇김방희> 마주 볼 수가 없으니까.
◆김명주> 코로나가 되니까 대면 면접을 못 하잖아요. 그러니까 비대면 면접의 대표적인 경우가 이미 기술은 있고 그래서 AI 면접이 확산이 돼서 지금 코로나가 끝나가지만 그러면 옛날로 돌아가서 AI 면접을 안 쓸 거냐. 이거는 거의 계속 쓸 거라는 그런 추세를 보고 있는 게 맞을 것 같습니다.
◇김방희> 그래요. 왜냐하면 저도 면접위원으로 참여했던 기관들이 몇 있는데 AI로 처리하니까 좋은 게 뭐냐 하면 비대면도 비대면이지만 너무 구직자들이 많이 몰리는데 일단 많이 걸러줍니다. 어떻게 보면 거르는 것도 죄책감 없이 AI가 걸러주니까.
◆김명주> 어떻게 보면 AI가 했으니까, 사람이 했으면 불만도 있을 텐데 AI가 했으니까 공정하게 했고 또 객관적으로 했겠지 하는 생각이 들죠.
◇김방희> 김명주 교수님이 쓴 책 제목이 『AI는 양심이 없다』인데 여러 가지 뜻을 가진 것이겠습니다만 어쨌든 인간적인 고려를 할 필요는 없으니까 얼마나 편하겠습니까. 그런데 어떤 방식으로 구체적으로 AI 면접이나 채용 현장이 벌어지는지를 저희 세대는 잘 모르겠어요. 사실은 저희는 아무래도 다 만나고 했던 세대라.
◆김명주> 보통 저희가 대면 면접할 때는 면접관 앞에서 자기소개도 하고 물어보는 질문에 대답도 하고 그러면 그걸 면접관이 들어서 평가를 하잖아요. 피면접자의 성격도 평가하고 역량도 평가하는데 이거를 사람 대신에 인공지능이 하는 건데 문제는 인공지능의 기술이 사람만큼은 아직 아니에요. 그래서 대화하는 내용 자체를 분석해서 어떤 내용을 추출하기 전 그것보다는 일단 카메라 앞에서 마이크 앞에서 피면접자가 인터뷰를 할 테니까 그 사람의 얼굴, 말투, 이런 것들을 평가를 합니다. 그래서 스타일이 예를 들면 소극적이다, 적극적이다, 불안해한다, 긴장한다, 이런 것들을 다 평가해 내고요. 그리고 말을 잘 못 하면 아무래도 언어를 텍스트로 바꾸는 작업을 하거든요. 바꿀 때 이런 부분이 오류가 나거나 잘 안 바뀌는 부분도 있고요. 일부 회사마다 조금씩 다르기는 하지만 바뀐 텍스트 중에서 부정적인 단어, 긍정적인 단어, 이런 걸 뽑아서 성향을 분석하기도 하고 그렇게 합니다. 중요한 건 퀴즈 같은 게임을 하는데 게임을 하는 걸 통해서 그 사람이 공격적이다, 진취적이다, 이런 역량 평가라는 것도 같이 진행을 합니다.
◇김방희> 그러다 보니까 이 구직자들 온라인 사이트나 이런 데를 보니까 AI 면접관 속이는 법이라고 해서 마치 이걸 거짓말 탐지기, 이렇게 이해하는 분들도 계신데 비슷한 점이 있고 다른 점이 있겠죠?
◆김명주> 말씀하신 것처럼 AI 면접 합격 비법, 이런 거라든지 유튜브에 보시면 AI 면접 잘하는 법, 아주 조회 수가 대단히 높습니다. 왜냐하면 취업 시즌 되면 그걸 1시간 내지는 1시간 반을 해야 되거든요. 대단히 부담스럽죠. 그런데 그게 AI 면접이 어떻게 이루어지는지 원칙을 알면 그것을 처음 접하는 사람들한테는 상당히 노하우가 돼요, 사실은. 새로운 시스템이기 때문에 물론 그게 친숙해지면 반복하고 반복해도 원칙적으로는 역량 찾는 것이기 때문에 값이 일정하게 나옵니다. 일정하게 나오지만 그 일정하게 나오는 직전까지는 연습을 통해서 조금씩 좋아질 수 있는 거죠.
◇김방희> 그래서 그런 게 도움이 될 수는 있다.
◆김명주> 처음 하시는 분들한테는.
◇김방희> 그렇죠. 처음 하시는 분들은 당혹스러울 수 있으니까. 그 AI 면접관의 경우에는 구체적으로는 그러면 어떤 기준으로 면접자를 평가하는 겁니까? 그 시스템이나 알고리즘이 있을 거 아니에요.
◆김명주> 네, 있습니다. 주로 화상으로 피면접자의 얼굴을 계속 보면서 말하는 걸 평가를 해요. 그래서 회사마다 조금씩 다르기는 한데 보통 얼굴에 포인트들을 봐서 그 사람의 감정을 읽어내고 말하는 도중에 감정을 읽어내고 심지어 어떤 경우는 얼굴의 온도차 측정도 하기도 하고 그다음에 어투를 통해서 이거는 약간 저도 공정성 문제가 될 수 있다고 생각을 하는데 표준화인지 아닌지도 판단할 수 있죠. 그래서 지방 출신이다, 아니다도 사실은 판단할 수 있는 부분도 있고. 그리고 정작 중요한 것은 그런 이 사람의 약간 특성, 어떤 부류의 사람인가. 그다음에 이 사람이 직무와 관련돼서 어떤 역량을 갖고 있는데 그 역량이 직무에 적합한지 안 적합한지를 비교하는 데까지 판단합니다.
◇김방희> 상당히 전에 비해서는 진척이 된 셈이기는 한데 그러나 그래도 남는 의심은, 의구심은 사람 면접관이라고 해서 별다르지는 않습니다마는 말을 좀 잘하고 어떤 단정한 제스처나 태도를 가지고 있는 사람이 유리해지는, 업무 역량과는 상관없이, 그런 오류는 나타나지 않습니까?
◆김명주> 똑같습니다. 카메라로 제스처라든지 어투라든지 표정을 보기 때문에 아무래도 AI가 잘 인식할 수 있도록 발음 연습도 하는 게 좋고. 표정도 가급적 웃고 밝은 모습 하는 게 좋다고 알려져 있는데. 그게 이론상은 그런데 실제로 그러느냐 보신 분들은 별 차이 없더라 이런 이야기도 하기도 하고요. 또 중요한 것은 아까 제가 말씀드렸지만 대화의 내용을 사람들은 이해를 하면서 하잖아요. 그런데 AI는 일단 녹음을 하거든요. 나중을 대비해서 녹음도 하고 대화했던 내용을 텍스트로 바꾸기는 하지만 텍스트의 의미 자체를 해석하는 단계까지는 가지 못했어요. 그래서 농담처럼 아무 말이나 해도 씩씩하고 밝게 이야기하면 점수를 딴다. 이런 농담이 나올 정도까지 하는 거죠.
◇김방희> 인생이 걸린 문제니까 아무 말 대잔치를 할 수는 없겠지만 AI 면접관이 완전히 전적으로 신뢰를 받는 건 아니다 이런 걸 또 알 수가 있는데 MBTI 같은 게 요즘 워낙 인기니까 이런 텍스트 내가 직접 써가면서 하는 것도 한 30분 걸리는데. AI 면접은 평균적으로 얼마나 하는지는 모르겠습니다마는 결국 이런 테스트를 좀 온라인 혹은 기술에 의존한다고 봐도 되겠습니까?
◆김명주> AI의 기능 중에서 AI 면접관이 하는 가장 중요한 기능은 지원자를 분류하는 기능이에요. 그래서 아까 말씀드린 것처럼 이 사람들은 떨어뜨릴 사람 그다음에 이 사람은 후보 이 사람은 가장 적합한 사람 이렇게 분류를 해 주기 때문에 그 분류가 주로 역량 기반이나 특성 기반인데 말씀하신 대로 그게 MBTI처럼 그 사람의 성격도 드러나는 거고요. 그 사람이 가지고 있는 생각, 지나온 생각 앞으로의 문제를 풀 때의 그 사람의 어떤 생각의 어떤 가치관 이런 것들을 드러내기 때문에 MBTI는 보통 한 16가지로 분류하잖아요. 이건 역량의 종류에 따라서 역량마다 점수가 있으니까 가지 수는 거의 무한대처럼 분류가 될 수가 있죠.
◇김방희> 다만 한 가지 AI 전문가이신 김 교수님이 면접을 볼 이유는 없으니까 진짜 한번 보고 이런 것들이 가진 문제점들을 좀 파악해 보고 싶은 생각도 있는데. 회사가 아직 그런 그것까지 고민하는지는 모르겠습니다. 가장 대표적인 게 기존의 사람들이 하는 면접의 경우에 문제는 떨어지면 떨어진 이유를 피드백 해 줬으면 좋겠는데 그걸 안 했거든요. 그냥 아주 짧게 통보를 안 하는 회사도 꽤 많아서 불만을 갖고. 그런데 AI의 경우에는 어쨌든 점수라든가 기준이 명백하니까 AI가 떨어진 이유를 설명해 주기도 합니까?
◆김명주> 설명 안 해 줍니다. 왜냐하면 점수가 나오기는 하지만 리포트 보면 역량 점수가 분야별로 이렇게 나오고요. 그게 직무 적합성 같은 경우도 나오거든요. 회사마다 인재상도 다르고 원하는 직무나 그렇게 다르기 때문에 나오지만 그건 일종의 영업비밀이고 또 이게 공개되게 되면 보는 시각들이 되게 많이 달라요.
◇김방희> 그럴 수 있겠죠.
◆김명주> 이걸 왜 역량을 이렇게 점수를 줬느냐 또 따지기 시작하면 또 다른 문제로 비화될 수 있기 때문에 현재로서는 과거에서처럼 과거에도 면접한 결과를 알려주지 않는 것처럼 지금도 알려주지는 않습니다.
◇김방희> 다만 저도 피면접인이 돼 본 적도 많고. 면접을 해본 적도 많은데. 평가를 해본 적도 있는데. 사람만이 가진 오랫동안 여러 사람을 접촉해서 생긴 사람만이 가진 어떤 촉이랄까 저분이 지금 마음에 없는 소리를 하고 있다든가 이런 거.
◆김명주> 거짓말을 하고 있다든가.
◇김방희> 그렇죠. AI가 글쎄 그걸 보완할 수 있을까 모르겠네요, 그건.
◆김명주> 그게 실제 AI뿐만이 아니라 보통 빅데이터 분석하는 데이터 사이언스 하시는 분들이 흔히 갖는 게 인사이트라고 보세요. 직관력이죠. 어떤 데이터에 대한 경험을 통해서 딱 하나만 봐도 뭘 알 수 있는 그런 직관력인데. 그게 요즘 데이터 사이언스나 AI하시는 분들은 가능하다 이렇게 보고 있습니다. 결국은 데이터의 축적된 경험을 기반으로 해서 어느 한 케이스의 피면접자를 보고 판단하는 것이기 때문에 그리고 아까 제가 역량 측정하는 게임을 한다고 그랬잖아요. 그거라든지 아니면 요즘 인적성 검사도 AI 면접으로 많이 옮겨놓거든요. 그러면 막 풀다가 보면 내가 의도적으로 나를 잘 보이기 위해서 거짓말하는 부분들이 체크가 돼요. 일관성 없는 답들이 나오기 시작하기 때문에 그런 걸 통해서 이 사람은 거짓말을 하고 있네라든지 아니면 저 사람은 성실하지 못하네라든지 저 사람을 채용했을 때 우리가 부담스럽겠다 하는 부분들은 데이터화돼서 나올 수는 있죠.
◇김방희> 거의 그런 인간의 촉까지도 따라잡기는 했군요. 그런데 교수님이 보시기에 그러면 AI 채용이 젊은 세대에서 최대 화제니까 다른 단점이 있다면 어떤 게 있을까요?
◆김명주> 이게 여러 가지 단점이 있는데 우리나라 같은 경우에 고용정책기본법에 보면 채용에 관한 규정이 있어요. 거기 중에서 성별 이런 것 차별하면 안 된다는 게 한 10가지가 있는데. 차별하지 말아야 되는 것 중에 신체적 조건이나 출신지라든지 이런 것들이 있는데. 요즘에 AI 면접에서 사람의 특성을 분리한다고 그러잖아요. 그다음에 역량 기반으로 한다고 그러는데. 그걸 가만히 보면 결국은 신체적 조건이 물리적인 신체적 조건이 아니라 그 사람 자체에 대한 어쩔 수 없는 여러 가지 형태를 가지고 판단하는 경우가 되어 버리니까 결국은 다양한 사람들을 인정하는 게 아니라 조직의 목적에 꼭 필요한 사람들을 처음부터 AI를 통해서 차별하는 것 아니냐.
◇김방희> 그럴 수 있겠죠.
◆김명주> 그런 오해들, 오해라든지 그런 주장들이 많이 나오고 있는 거고요. 또 하나는 뭐냐 하면 말씀하신 것처럼 설명이 사실은 불가능하고 아직 기술이 완전하지는 않아요. 완전하지 않은데 그나마 진짜 떨어뜨릴 사람들. 이런 사람들을 걸러내는 데 많이 쓰고는 있는데. 당사자 입장에서는 억울할 수 있죠. 그리고 또 하나는 나는 AI 면접을 보고 싶지 않다. 사람 면접을 보고 싶다 하는 사람들한테는 선택의 기회가 없습니다, 현재는. 그런데 미국 같은 경우는 일부 주에서는 법을 이미 만들어서 면접을 볼 때 나는 AI 면접을 볼지, 사람 면접을 볼지 선택하게끔 되어 있거든요.
◇김방희> 그게 훨씬 공정해 보이는데.
◆김명주> 그렇죠, 공정해 보이죠. 그런데 우리는, 우리는 AI 면접밖에 안 하니까 너 그거 싫으면 지원하지 마, 이런 것도 보면 사회적 다양성 이런 것들이 어느 기술에 의해서 획일화되는 그런 부분들이 많이 아쉽고요.
◇김방희> 그런데 이 모든 AI 기술을 다 해당 기업이 개발해서 하는 건 아닐 테고 이런 걸 제공하는 서비스 업체들이 있는 모양이죠?
◆김명주> 있습니다. 대략 우리나라에 보통 4개, 5개 정도 되고 제가 특정 기업은 말씀드리지 못하겠지만 그런 AI 기반의 주로 스타트업이나 중견기업들이 아웃소싱을 해서 갑니다.
◇김방희> 아무래도 가성비가 좋으니까. 많은 기업들이 이걸 쓰는 것 같은데 비용이 많이 안 드는 모양이죠?
◆김명주> 주로 연 단위로 계약을 하고요. 그러니까 1년 써보고 괜찮으면 계속 쓰는데. 그런 기업들 말로는 한 97% 이상이 재계약을 하더라, 그러니까 만족도가 높다는 거죠. 그리고 또 어떤 경우는 그 회사의 인재상이나 역량이 달라지면 그 회사에 괜찮은 직원들에 대한 역량 테스트 결과를 학습을 또 시켜요. 그런 비용들이 많이 들기 때문에 비용 자체는 굉장히 차이가 많이 있습니다.
◇김방희> 그렇겠군요. 곽정은 님이 요즘에 상담 전화할 때 보니까 상담원도 AI 상담원 자주 보이는 것 같은데. 그렇죠? 이게 훨씬, 표현이 죄송합니다마는 경제성이, 가성비가 좋은 모양이죠.
◆김명주> 그게 상담원도 오랫동안 하면 피곤하잖아요. 피곤하고 한 사람하고 상담밖에 못 하는데. AI로 구현하면 동시에 할 수 있고, 피곤하지 않고, 경영 측면에서 굉장히 효율적이죠. 그리고 또 남들이 볼 때는 사람이 아니니까 감정적이거나 사적인 게 개입이 안 돼 있어서 믿을 수 있다. 이런 느낌들을 가질 수 있으니까 그렇습니다.
◇김방희> 김동욱 님은 대학 졸업 후에 지금까지 인사 관리자로 일하면서 면접관으로 면접에 많이 참여했습니다. 그러셨겠군요. AI 면접관까지 나오는 거 보니까 더 이상 설 자리가 없어지는가 싶습니다. 해 주셨는데. AI가 나오면 반드시 따라붙는 얘기가 일자리 쇼크에 관한 부분이죠. 교수님 보시기에는 어때요? 어떤 분야에서 가장 일자리 문제가 심각할 것 같아요? 지금 채용 현장 얘기만 했고. 사실은 다른 분야가 많아서 일일이 제가 여쭤볼 텐데. 그 전에 채용을 심각하게 느끼는 분들이 이렇게 많네요, 보니까.
◆김명주> 이게 저희가 보통 4차 산업혁명 이야기를 많이 하잖아요. 3차 산업혁명은 보통 정보혁명이라고 하고 4차 산업혁명이 AI 중심으로 한 지능혁명이라고 그러는데. 그래서 이전에는 단순 노동을 뺏어갔는데. 지금은 고학력자라든지 전문가들 직업. 제가 아까 상담가 같은 경우는 사실은 상당히 훈련을 받고 자격증도 있어야 되고 하는데 그 자리를 대신하고 있잖아요. 그래서 저희들이 흔히 말하는 심지어 사 자 들어가는 직업 의사, 판사, 회계사 이런 데도 AI가 잠식을 많이 하고 있고 그렇습니다.
◇김방희> 그 얘기를 좀 해 봐야 할 텐데. 그전에 기술적인 문제 제가 모르는 질문이 하나 있어서 박민호 님이 3년 전에 AI 관련 강의를 1년 정도 들었습니다. 그런데 AI 기술 중에 가장 어려운 기술이 중간에 AI의 판정을 모니터링하는 기술이라고 들었는데요. 그러니까 AI가 나름대로 판정을 기준을 가지고 할 텐데. 이게 제대로 가고 있는가를 모니터링은 그건 인간이 해야 되는 겁니까?
◆김명주> 그게 가장 큰 모니터링이 뭐냐 하면 공정성이거든요. 이게 어떤 치우쳐서 판단하지 않는가 하는 부분들인데. 공정성이 제대로 됐는지를 알아보려면 내부적으로 어떤 절차로 결정을 했는지를 들여다봐야 합니다. 그런데 아까 말씀하신 것처럼 AI가 기본적으로 설명하는 게 굉장히 불편해요. 기술적으로 복잡하기 때문에. 그래서 모니터링하고 공정한지 체크하고 그걸 설명 가능하게 설명하는 것 자체가 지금 AI의 과제입니다. 과제라는 이야기는 잘 안 된다는 이야기.
◇김방희> 안 되고 앞으로 이 산업이나 영역이 넓어질 수 있고.
◆김명주> 넓어질 때 대단한 영향을 줄 수 있는 요소들이죠.
◇김방희> 아까 우리 김 교수님께서 아주 중요한 말씀을 해 주셨는데 단순 반복 업무를 대체하는 수준을 넘어서고 있다, AI 기술이. 그러면서 이른바 사자 직업, 그러니까 전문 직종 그 사자가 아닙니다. 우리 사회에서는 전문 직종들이 가끔 그렇게 오해받기도 합니다. 어쨌든 전문 직종까지 파고들고 있다. 그런 예를 몇 가지 살펴보고 싶은데 우선 사법제도에 대한 불신이 워낙 국내의 경우는 또 강하고 하니까 차라리 판사 말고 혹은 검사 말고 AI의 심판을 받고 싶다. 이렇게 생각하시는 분들도 상상 속에서입니다마는 있으실 텐데 실제로 AI가 기존의 판결이나 이런 걸 뭐라 그럴까요. 재연해보거나 모니터링 해본 적이 있습니까?
◆김명주> 네. 실제 판사를 대신해서 결론을 내리는 단계까지는 아니고요. 판사가 결론을 내리기 전에 예비 결론을 내립니다. 보통 인공지능 판사라고 해서 보통 법조계에서 IT를 이용해서 지금까지 많은 기술들을 도입해 왔는데 보통 그걸 리걸테크라고 하는데 요즘 리걸테크 AI가 대단히 많이 사용이 되고 있습니다.
◇김방희> 지금 미국 얘기가 아니라 우리나라도 그렇게.
◆김명주> 우리나라도 준비하고 있고요. 우리나라는 사실은 좀 많이 보수적이에요. 보수적이어서 지금은 AI에 의한 채팅 상담 정도만 하고 있지만 일부 리걸테크 회사에서는 준비를 하고 있습니다. 판례들이라든지 이런 부분들을 AI로 학습을 시켜서 구현하는 부분들.
◇김방희> 그게 만약 도입이 되면 인간적인 어떤 오류를 피할 수 있겠다는 기대감도 있지만 또 하나는 어쨌든 AI라는 게 기존의 데이터들을 집어넣어서 나름대로 학습을 하는 것이기 때문에 기존의 판례나 이런 경향성을 답습하게 될 가능성이 없습니까?
◆김명주> 맞습니다. 지금 지적하신 부분이 AI에서 가장 우려하는 게 고착화거든요. 기존의 데이터나 판례를 학습해서 그걸 따라서 AI가 판단을 하게 되는데 문제는 기존의 판례들 속에 편견이 있거나 특히 미국 같은 경우는 흑인 차별, 흑인 차별, 우리나라 같은 경우에는 지방 차별이나 여성 차별. 이런 것들이 있으면 AI가 그것을 학습을 하는 거죠. 그리고 앞으로 새로운 사례가 나오면 그 학습된 기준을 가지고 판단하니까 계속적으로 사회적으로 편견과 차별이 고착화되는 가장 큰 문제가 있습니다.
◇김방희> 그러면 특히 법관이라는 우리 사회에서 가장 보수적인 직종의 AI가 파고들 여지는 많지는 않은 거 아니에요?
◆김명주> 그런데 우리나라만 해도 판사분들 숫자가 많이 부족해요. 재판이 너무나 많죠.
◇김방희> 많이 밀려 있다고 그러더라고요.
◆김명주> 그리고 그중에 한 70%는 그분들 기준으로 볼 때는 심각하지 않은 민사권의 소액 이런 것도 대단히 많고 그래서 그런 부분들은 가급적 AI 판사나 AI 판사의 도움을 받는 재판 형태로 했으면 좋겠다는 생각들을 많이 가지고 있죠.
◇김방희> 그럴 수 있겠군요. 중요한 어떤 사회적 쟁점이 되는 분야라면 모르지만 그렇지 않은 경우는 AI 법관에게 맡기는 게 어떻냐 하는 의견이 충분히 생길 수 있겠군요. 질문들이 몇 개 또 들어와 있어서 많은 분들이 관심을 보여주셔서 여쭤보겠습니다. 양재근 님이 결국은 AI도 인간의 데이터 협력으로 진행되는 거 아닌가요. 사적 감정이 개입되지 않는다고 그러지만 프로그래밍 과정에서 알고리즘을 만든다든지 하는 과정에서 그런 사적 감정이 개입될 여지도 있는 거죠. 해 주셨는데.
◆김명주> 맞습니다. 그래서 공정성 이야기를 할 때 데이터의 공정성과 알고리즘의 공정성이라는 두 가지 이야기를 해요. 그러니까 데이터의 공정성은 데이터 자체가 편견과 차별을 가지고 있는 경우를 학습하면 AI가 당연히 그렇게 따라가는 거고요. 데이터가 공정해도 불구하고 그걸 판단하는 알고리즘에다가 프로그래머가 뭔가 개입을 하는 거죠. 그렇게 되면 판단한 것을 치우치게 만들기 때문에 그래서 국가별로 이런 AI를 사용할 때 특히 아까 인사제도라든지 사람의 형량을 판단하든지 이렇게 심각한 문제를 할 때는 과연 그 AI가 공정한지를 공식적으로 확인을 해야 된다. 그래서 미국 같은 경우는 뉴욕주나 이런 경우는 AI 채용 시스템은 1년에 한 번씩 공정성 테스트를 거쳐야 한다는 법을 지금 통과시켜서 내년, 내후년부터 시행을 합니다. 우리는 그런 부분이 아직은 없죠.
◇김방희> 그러니까 미국에서 특히 뉴욕주처럼 진보적인 도시에서는 과연 그 채용의 기준이 공정한가에 대해서 1년에 한 번씩 어쨌든 알고리즘을 체크하는 거군요.
◆김명주> 네. 그걸 받지 않으면 쓸 수 없다, 이렇게 이야기하고. 유럽연합도 작년에 법을 하나 만들었는데 인공지능법. 아직 발효는 되지 않지만 그 안에 보면 사람을 채용하거나 예를 들어 비자를 내주거나 이렇게 생사 직업과 관련된 인공지능은 대단히 위험하다. 따라서 이 부분은 쉽게 쓸 부분이 아니라 공정성 테스트도 해야 되고 데이터가 제대로 학습됐는지 확인도 해야 되고 그런 과정을 거쳐야 된다고 이야기를 하고 있습니다.
◇김방희> 바로 그런 분야의 대표 격이 의료 분야겠죠. 다만 의료 소비자 입장에서는 우리나라에서도 그런 얘기하시잖아요. 중병에 대한 진단을 받고 나면 꼭 다른 데 가서 크로스체크해라. 세 군데는 가봐라 이런 얘기까지 할 정도인데. 그 얘기는 의사분들의 진단 능력에 대해서 상당한 의구심이 실제로 존재한다는 뜻이고 AI가 의외로 그걸 극복할 수 있다는 연구 결과가 미국에서 많이 나오는 거 같은데. 의료 분야의 가능성은 어떨까요?
◆김명주> 그게 2016년이 우리나라 알파고하고 이세돌하고 대결했던 사건인데 그 당시에 IBM이 왓슨이라는 AI 컴퓨터를 의료 분야에 학습을 시켰어요. 그래서 암환자를 진단하는 그 진단율이 우리가 흔히 말하는 명의보다 한 2배가 높습니다. 그래서 우리나라의 지금 8개 병원이 그걸 도입해서 쓰고 있고 그게 외국산이잖아요. 그러다 보니까 우리나라에서 닥터 앤서라고 해서 국산 AI를 1.0 버전을 만들었고 곧 2.0 버전을 다시 만들고 있는데 이 부분은 말씀하신 것처럼 의료계의 실수, 의사분들의 인간적인 실수를 많이 커버해 줄 수 있는 부분들인데 이게 실제로 몇 년 사이에 써보니까 환자들의 반응이 대단히 좋습니다.
◇김방희> 저도 그럴 것 같거든요. 그런데 다만 의료 현장을 얼마나 들여다보셨는지는 모르겠는데 의사의 의견이라는 게 나오고 진단이 나오고 AI의 진단이 나오는데 충돌할 경우에 아직은 의료 현장에서 의사의 권위를 더 인정받는 수준 아닌가요?
◆김명주> 아무래도 의료계에서 최종적인 결정은 의사분들이 하시니까. 그래서 어떻게 보면 IT나 이런 AI를 이용한 의료 활동들이 의사분들의 어떤 그런 부분에 있어 딜레이 되는 경우도 있어요.
◇김방희> 그렇겠죠. 일종의 저항도 있을 수 있고요.
◆김명주> 네. 충분히 있습니다. 원격 진료도 마찬가지고. 그런 부분이 있지만 중국만 해도 워낙 사람들이 많다 보니까 거기도 많은 IT 기업들이 인공지능 의사를 내놓고 진짜 현장에서 쓰고 있고요. 미국도 쓰고 있고 우리나라도 조만간 아마 의료계의 의사 수급 문제가 발생을 하면 어쩔 수 없이 밀고 들어오지 않을까 하는 생각을 갖고 있습니다.
◇김방희> 모든 전문 직종에 수급 문제라는 게 있으니까 수요가 충분히 생길 수 있다. 김동욱 님이 면접과 관련해서 아까 저희들 나눈 대화와 관련한 공감을 표시해 주셨는데 면접을 보다 보면, 면접을 많이 보신 분인데 이력서나 자소서상에 없는 자기소개서상에 없는 내용이지만 면접관과 느껴지는 유대감이 있는데 어떤 간절함도 있고 AI가 과연 그런 측정이나 평가까지 가능할까요 하는 의구심을 표현해 주셨는데, 어렵겠죠, 이런 거는.
◆김명주> 지금 기술로서는 굉장히 어려운데 지금 AI 연구하시는 분들은 그 연구까지 하세요. 뒷단에 있는 사람, 원래는 AI나 빅데이터 분석들은 주로 확률적인 거거든요. 확률상 이 사람은 적합하다 안 하다 퍼센트로 이야기하지만 재판에서도 보면 AI 판사는 확률을 이야기하지만 인간 판사는 확률 뒤편에 있는 인과관계를 많이 보거든요. 그 사람의 배경 그래서 저 정도면 일을 저질렀지만 나 같아도 참 공감이 된다. 이런 것들이 있기 때문에.
◇김방희> 일종의 공감이죠.
◆김명주> 그렇죠. 그래서 AI가 지금 당장은 그렇게까지는 하지 못합니다. 하지 못하지만 그게 사람들의 희망사항이라면 또 연구하시는 분들은 쫓아가는 거죠.
◇김방희> 그래서 면접에서도 AI가 끝까지 다 하는 경우는 아직 드물고 걸러낼 분만 걸러내고 나서 다시 인간적인 면접들이 이루어지곤 하는데. 서울여대 정보보호학과 김명주 교수와 함께 AI, 우리 실생활에 얼마나 파고들었고 또 어떻게 활용되고 있는지 얘기를 하고 있습니다. 얘기를 안 할 수는 없고 저는 우리 사회의 한 단면이기 때문에 이 얘기도 해야 된다는 생각이 드는데 어르신들이 AI 기술을 활용받고 있잖아요, 이미. AI 스피커라는 걸 놓고, 이미 광고에 나옵니다마는 내 유일한 친구이기도 하다. 독거노인분들도 계시고 하니까. AI 스피커는 충분히 친구 정도의 역할을 하는 광고처럼 하는 겁니까?
◆김명주> 네, 하고 있습니다.
◇김방희> 그러나 단순한 질문과 응답 아닌가요?
◆김명주> 단순한 건데 우리 실버 세대인 분이 복잡한 대화를 안 하시잖아요. 그리고 자녀분들이랑 같이 살면 사실 자녀분들이 어른한테 하는 대화가 일상적인 안부와 이런 정도이기 때문에 AI는 그 정도 하고요. 그리고 건강관리도 해 주고 또 노래도 해 달라면 노래도 해 주고 또 대화하면 말이 안 되지만 말이 안 되는 대로 대화를 하거든요. 그래서 실제로 AI 스피커를 도입했을 때 노인 분들의 건강을 측정한 데이터가 있습니다. 알츠하이머 같은 경우는 30%의 개선 효과가 있다. 이게 이미 데이터가 나와 있고요. 그래서 도움이 많이 된다고 생각을 하는데 문제는 이게 의인화 현상이 벌어지는 거잖아요.
◇김방희> 그렇죠. 사람으로 보는 거니까.
◆김명주> 사람으로 보는 거죠. 사람으로 보는 거여서 그게 단기적으로는 효과가 있는데 장기적으로는 약간 중독과 남용 효과가 있습니다.
◇김방희> 중독 될 수도 있는 거예요?
◆김명주> 중독도 될 수 있습니다. 중독도 될 수 있어서 자녀를 대체한 효과도 상당히 크거든요. 그런데 그게 과연 인간성 입장에서 볼 때 바람직한 걸까 제가 사업하는 분들한테 AI 스피커를 자녀 목소리에 자녀의 모습으로 만들어서 커스터마이징해서 제공하면 그 몰입 효과는 더 커지거든요. 그 사업을 하시면 크게 성공할 수 있는데 문제는 그거로 인한 중독 효과나 이런 부분들은 더 심각할 수 있다. 그래서 항상 햇빛이 있지만 그림자가 있는 것처럼 AI도 AI 스피커가 대단히 좋더라 그래서 부모님들에게 막 사드리지만 그 부분에 있어서 자녀의 역할들도 같이 고민을 하셔야 될 것 같습니다.
◇김방희> 그러니까 부모님이 어느 날 중독되고 나면 AI 스피커인 자녀가 훨씬 더 나은 것, 나한테 다정다감하고 배려심 깊고 그런 문제도 있을 수 있는데 그런데 아직은 구글, 아마존 같은 AI 스피커 이런 것들이 많이 보급되고 있는데 그 수준은 지금 어떤 수준입니까. 예를 들어서 단순한 대화를 하는 수준입니까? 아니면 거기에 어떤 기능까지 첨부되고 있습니까?
◆김명주> 일상적인 대화라고 보시면 됩니다. 그러니까 우리가 어떤 관공서 같은 데 보면 챗봇이 있잖아요. 그런 챗봇들은 특정한 업무만 하지만 AI 스피커는 모든 분야에 대화를 하고 있거든요. 저희들이 AI 자연언어 처리하시는 분들이 측정하는 기준이 있어요. 보통 SSL이라고 해서 구글에서 나오는 건데 대화가 얼마만큼 구체적이고 문맥에 있어서 자연스러운가를 측정하는 기준이 있는데 보통 사람을 놓고 측정을 하면 86%가 나옵니다. 일반적인 사람들. 그런데 구글에서 개발한 미나라는 AI 챗봇 같은 경우는 거의 79%.
◇김방희> 많이 따라잡았군요.
◆김명주> 79%고 저희가 1년 전, 2년 전에 약간 말썽이 있었던 이루다. 이루다 같은 경우도 이루다 회사 자체에서 측정할 때는 78% 그러니까 이루다 이용했던 사람들이 진짜 대화를 하기 시작하는 거죠. 그래서 문제가 사실 좀 벌어졌던 부분이기도 하고요. 그 정도까지 올라와 있습니다.
◇김방희> 이루다 같은 경우는 사실 그 당시에 대화에서 성희롱성 발언이라든가 이런 것들이 많이 나오면서 사회적 물의를 빚었던 거죠. 그런데 그 얘기는 거꾸로 생각해 보면 그럴 만큼 대화의 방법이나 수준이 인간에 거의.
◆김명주> 네, 이루다 같은 경우는 학습했던 데이터가 우리 청년들 커플들의 카카오톡 대화거든요. 거의 그 대화를 한 100억 개 이상을 학습을 했기 때문에 청년들의 대화 수준이라고 보시면 됩니다. 나오는 말이. 그러니까 굉장히 자연스럽죠.
◇김방희> 자연스러우면서 한편으로는 청년들 대화 수준에 대한 걱정도 좀 되기는 합니다마는 종합적으로 우리 AI 기술 수준이나 산업에 대해서 좀 여쭤보고 싶은데 우리나라 기술 수준은 교수님이 평가하시기에는 어느 정도입니까?
◆김명주> 이미 나라별 AI 수준에 대한 평가 지표가 나와 있어요. 나와 있는데 가장 큰 게 주요한 산출물 그러니까 언어 인식, 얼굴 인식 이런 부분들에 있어서는 중국하고 미국. 미국하고 중국이 세계 양대 국가입니다.
◇김방희> 요즘 첨단 산업 다 그러니까요. 전기차도 그렇고.
◆김명주> 특히 AI는 학습을 많이 해야 하는데 요즘은 우리나라 같은 경우에도 개인정보 보호법이 있어서 학습 데이터를 잘 활용 못 하거든요. 그런데 중국은 엄청나게 활용을 많이 해서 그래서 중국이 AI를 많이 쫓아오는 게 있고요. 또 하나는 잠재적 투자인데 우리가 흔히 기업 말할 때 유니콘 기업, 유니콘 기업이 몇 개 있느냐 따지면 그것도 역시 미국하고 중국이... 우리나라는 몇 개 없습니다. AI, 유니콘 AI기업들이.
◇김방희> 일전에 한번 모셨던 분이 AI로 토익시험 개선하게 하는 그러니까 수험생이 이걸 통해서 성적을 더 올리게 하는 그런 학습 기법을 차용한 거였는데 그런 건 효과들이 있습니까?
◆김명주> 있습니다. 최근에는 저도 어떤 기업에 컨설팅을 해 주고 있는데 거기는 학생들의 장문. 글 쓰는 거 되게 싫어하잖아요. 그런데 AI가 글을 쓸 때 대신 써주는 게 아니라 글을 쓰기 위한 키워드를 몇 개를 줍니다. 이렇게 이렇게 한 문단 쓰면 그다음 것도 주고 줘서 그런 훈련들을 시키는 것들을 AI가 기존에 잘 된 문장들을 학습을 해서 그 스타일로 가이드를 해 주는 거죠.
◇김방희> 학습에 활용하는 거군요. 교수님이 보시기에 우리 사회에서 우리 AI의 기술 수준을 고려했을 때 지금 채용 얘기했고 법률, 의료 정도를 얘기했는데 가장 또 AI가 많이 활용될 수 있는 분야. 우리 일상으로 들어올 분야를 어떤 쪽으로 보고 계십니까?
◆김명주> 저는 초두에 말씀드렸지만 가상 인간. 가상 인간이 지금은 특정한 사람들의 제작비용들 때문에 그런데 조만간 이게 아마 굉장히 저렴해질 수 있다고 생각을 하기 때문에 그래서 그 가상 인간에 대한 아웃풋이 굉장히 눈앞에 많이 다가올 거다 심지어 나에 대한 또 다른 아바타, 똑같은 가상 인간도 쉽게 만들 수 있고 또 요즘에 메타버스가 나오잖아요. 메타버스 안에서 본인이 활동할 수 있는 가상 인간을 AI로 구현하는 이런 부분들이 피부로 대단히 많이 와닿을 수 있는데.
◇김방희> 아직 메타 회의나 이런 데서 보면 가상 인간이 실제 나라기보다는 약간 재미. 캐릭터에 가까운데 아주 실제 광고 모델 요즘 나오는 가상 인간처럼 나와 닮은 사람을 재현할 수도 있다.
◆김명주> 재현할 수도 있고 거기에서 두 개의 세계에 사는 거죠. 그리고 최근에는 실제 가수인데 그 가수가 약간 모든 걸 다 갖췄는데 약간 비주얼이 갖춰지지 않아서 스테이지에 잘 서지 못하셨던 분이.
◇김방희> 얼굴 없는 가수.
◆김명주> 그렇죠. 얼굴만 AI로 바꿔서 활동을 하시는 분이 계세요.
◇김방희> 국내에요?
◆김명주> 네, 국내에 있습니다. 그래서 보통 제가 이름은 말 안 하겠지만 이렇게 뒤져보시면 아는데 그분은 히든 스토리가 보면 원래 자기 얼굴에 대한 그런 것 때문에 약간 콤플렉스가 있었는데 AI 때문에 지금은 광고도 나오고요. 옛날에는 다른 사람의 노래를 커버만 했는데 자기 곡을 부르고 있고 인터넷상에서 굉장한 팔로워가 있습니다. 저도 팔로워고요. 존재하지만 얼굴은 가짜잖아요. 그런데 그 사람 전체를 진짜 존재하는 것처럼 사람들이 좋아하고 그렇기 때문에 개인한테 볼 때는 AI가 나한테 제2의 삶을 살 수 있는 기회도 제공해 줄 수 있기 때문에 그런 부분도 역시 아마 많이 활성화될 거라고 보고 있고 아마 다음 대선 때는 AI 후보들이 본격적으로 활동을 하지 않을까 생각을 합니다.
◇김방희> 단순히 캐릭터가 아니고.
◆김명주> 네, 그러니까 여러 군데에서 동시에 후보자 활동도 하고 유권자하고 만남 시간도 갖고 이러지 않을까 생각을 합니다.
◇김방희> 성공 예감 저도 얼굴을 알리기는 싫은데 AI 가상 인간 유튜브나 보이는 라디오에서 그걸 내보내고 싶은데 돈이 많이 들겠죠. 마지막으로 이게 미래 기술이고 우리 경제에서도 가장 중요한 핵심 기술이 된다는 얘기는 지난 한 10여 년간 얘기해 왔거든요. 젊은 분들이 이 분야에 도전한다 하면 어떻게 준비해야 되고 관련 학과가 있습니까?
◆김명주> 원래 국가에서도 최근에 AI 대학원 한 10개 정도 선정을 해서 국가 돈으로 지원을 해 주는 프로그램도 있고요. 학부에도 인공지능이나 데이터, 사이언스 지원해 주는 프로그램들이 있습니다. 그런데 굉장히 중요한 것은 데이터는 모든 분야에 다 있잖아요. 그러니까 AI를 하신 분이 모든 분야의 데이터를 가지고 AI 애플리케이션을 개발하는 것도 방법이지만 요즘은 저는 그런 생각을 합니다. 일반 전공이 있는 분들이 AI 배우기 쉽습니다. 보통 오픈 소스라고 해서 돌릴 수 있는 소스들이 다 공개돼 있기 때문에 마치 포토샵이 어려운 프로그램이지만 초등학생들도 사용하잖아요. 그런 것처럼 AI나 데이터 분석하는 툴은 조금만 공부하시면 모든 분야의 분들이 다 사용할 수 있기 때문에 요즘 제가 있는 서울여대의 경우도 인문사회대에 계시는 분들이 AI 공부를 하십니다. 그래서 자기 분야의 데이터를 가지고 자기 분야에 활용하는 형태로 가고 있기 때문에
◇김방희> 데이터를 해석하고 분석하는 게 더 중요해지니까.
◆김명주> 그렇죠. 데이터 자체에 대한 전문성은 본인이 제일 잘 알잖아요. IT 하시는 분이 하는 것보다는 그래서 오히려 AI를 배워서 자기 분야에 활용하는 거가 훨씬 더 효과적인 시대가 올 거다.
◇김방희> 내 일 혹은 내가 하려는 일에 이걸 어떻게 접목시킬지를 더 고민할 필요가 있다. 알겠습니다. 참 공부가 많이 됐습니다. 서울여대 정보보호학과 김명주 교수와 함께 AI에 대해서 공부했습니다. 고맙습니다.
◆김명주> 네 감사합니다.
■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색
▷ 전화 : 02-781-1234
▷ 이메일 : kbs1234@kbs.co.kr
▷ 뉴스홈페이지 : https://goo.gl/4bWbkG
KBS
Copyright © KBS. All rights reserved. 무단 전재, 재배포 및 이용(AI 학습 포함) 금지