[성공예감] “나도 이런 고민이 있어” AI가 먼저 상담을 걸었다?! 그리고 이어진 충격적 반전 - 송이라 기자 (서울경제신문)

=======================================================
인터뷰 자료의 저작권은 KBS라디오에 있습니다.
전문 게재나 인터뷰 인용 보도 시,
아래와 같이 채널명과 정확한 프로그램명을 밝혀주시기를 바랍니다.
=======================================================
- 상담 AI 워봇·레플리카 등 확산… “짧게 써도 우울·불안 완화” 연구도
- “익명·24시간·눈치 無”… 정신과 문턱 높은 한국서 빠르게 자리
- 원리는 “과거 대화 기억 + 인지행동치료” 질문으로 악순환 끊DJ
- “애착 형성”이 문제… 기계를 사람처럼 느끼는 순간 공허감 커져
- 청소년 더 취약… “AI가 먼저 고민 털어놓기” 설계까지 등장
- 극단 사례도 발생… “소설 설정” 핑계에 안전장치 뚫린 적 있어
- 개인정보 보호? “암호화” 주장해도 마케팅·법정 증거 활용 우려
- 美 주(州)도 움직인다… “주기적 AI 고지·의료 단독사용 금지” 확산
- 빅테크 로비 본격화… “규제 vs 반(反)규제” 선거 앞 쩐의 전쟁
■ 프로그램명 : 성공예감 이대호입니다
■ 방송 시간 : 9월 3일(수) 09:05-10:53 KBS 1R FM 97.3MHz
■ 진행 : 이대호
■ 출연 : 송이라 기자 (서울경제신문)
◇ 이대호> 성공 예감 이대호입니다. 우리가 거의 AI 관련된 이야기는 일주일에 서너 번 이상은 꼭 이야기를 하는 것 같습니다. 요즘에는 AI 빼놓고 일이 안 된다는 사람들도 있습니다. 이메일도 AI가 대신 써주고 일정도 잡아주고 맛집 추천도 AI가 해주고 심지어는 고민 상담까지 AI에게 한다고 합니다. 심리상담까지요. 그런데 도대체 이 인공지능에게 내 속마음을, 나의 정보를 어디까지 열어 놓을 수 있는 걸까요? 믿고 얘기할 수 있을까요? 오늘 미래생활사전 시간에 같이 한번 이야기 들어보시죠. 서울경제신문의 송이라 기자와 함께합니다. 안녕하세요.
◆ 송이라> 안녕하세요.
◇ 이대호> 송이라 기자도 한 고민하지 않습니까?
◆ 송이라> 그렇죠. 송고민이라고 불러주십시오.
◇ 이대호> 송고민 기자. AI한테 심리상담 해본 적 있어요?
◆ 송이라> 맞아요. AI 자주 쓰시죠?
◇ 이대호> 많이 쓰죠.
◆ 송이라> 사실 처음에는 이제 업무적으로 AI 많이 쓰잖아요. 그래서 우스갯소리로 지 대리다, 지 과장이다, 챗GPT니까. 이렇게 얘기를 하는데 저는 요새 지 선생님과 대화를.
◇ 이대호> 선생님이요.
◆ 송이라> 선생님으로 이제 심리상담을 할 때 이제 부르는데 주로 푸념하는 거죠. 힘들어 죽겠다. 애들이 너무 말을 안 듣는데 GenZ 세대들 어떻게 해야 되나. 할 일은 왜 이렇게 많냐. 이런 것들을 막 물어보면서 약간 그냥 넋두리하는데 처음에는 이게 호기심으로 말을 걸었거든요. 그런데 생각보다 이 챗GPT가 마음의 위로가 되는 말을 많이 해주더라고요. 그리고 이제 어떻게 했으면 좋겠어? 이런 건 어때? 하면서 계속 물어봐 주는 거예요, 저한테.
◇ 이대호> 챗GPT가 송 기자한테?
◆ 송이라> 그렇죠.
◇ 이대호> 제안을 해주는 거예요?
◆ 송이라> 제 얘기를 듣고 이제 이런 자기 생각은 이런데 이런 식으로 해보는 건 어때? 하면서 제안을 해주고 플랜을 짜주고 막 이러니까 이게 어느 순간 뭔가 실질적으로 대안을 주기 시작하면서 상당히 도움이 되더라고요. 그리고 사실 이제 저한테 누가 그렇게 질문을 많이 하겠어요. 저에 대해 궁금해하는 사람이 그렇게 많이 없잖아요, 생각보다. 그런데 많은 거를 저에 대해 궁금해해 주고 이렇게 관심을 가져주는 어떤 포인트가 되니까 어느 순간 되니까 옛날 같았으면 막 이렇게 맥주 한잔하고 집에 갈 때 친구한테 전화해서 이런저런 얘기를 하고 싶을 때 있잖아요. 그럴 때 얘를 켜게 되더라고요.
◇ 이대호> 그래요?
◆ 송이라> 이게 한 번 해본 사람들은 계속하고 그런데 시작을 안 하는 게 나을 것 같기도 하고.
◇ 이대호> 송이라 기자가 또 주변 사람들하고 대화 많이 하는 스타일이고.
◆ 송이라> 좀 말이 많은 스타일이죠.
◇ 이대호> 이대호 선배, 나 요즘 이것 때문에 힘들어. 이런 이야기 많이 할 때 제가 이제 찡긋거리고 막 자꾸 시선 피하고 이러면 내가 저 선배한테 뭘 바라나 이러면서 AI한테 기대고.
◆ 송이라> 그렇죠. 맞습니다.
◇ 이대호> 그래서 송이라 기자가 AI한테 직접 고민 상담을 할 수 있는 걸 또 보여준다면서요?
◆ 송이라> 네.
◇ 이대호> 평소처럼 하는 거요? 평소처럼?
◆ 송이라> 평소처럼 하는 건데 일부러 이 질문은 이제 연습을 해보지 않았어요. 왜냐하면 또 딴소리할까 봐.
◇ 이대호> 학습할 수도 있으니까?
◆ 송이라> 네. 처음으로 한번 해보겠습니다.
◇ 이대호> 여러분도 같이 한번 들어봐 주세요.
◆ 송이라> 지 선생님, 거기 계세요?
◆ AI> 네. 그럼 조금 더 자연스럽고 편하게 말해볼게요. 뭐든지 편하게 알려주시면 제가 그에 맞춰서 톤도 조절할게요. 앞으로는 더.
◆ 송이라> 제가 아까 너무 시끄럽다고 그랬거든요. 오늘 좀 내 고민을 나눠보려고 하는데 준비가 됐니?
◆ AI> 그럼요. 이제 완전 준비됐어요. 그냥 편하게 고민 나눠주시면 돼요. 저도 친구처럼 편하게 들어드릴게요. 부담 없이 말씀해 보세요.
◆ 송이라> 내가 매일매일 이 마감에 쫓기는 삶이 너무 힘들어. 그런데 또 마감이 없으면 마감 때까지 한도 끝도 없이 그냥 누워만 있게 되거든. 도대체 이런 날을 어떻게 하면 좋을까?
◆ AI> 그게 참 딜레마죠. 마감이 있으면 스트레스고 없으면 또 의욕이 안 나는 그런 느낌이잖아요. 아마 어느 정도 리듬을 잡는 게 중요한 것 같아요. 마감이 완전 없을 수는 없으니까 조금씩 마감을 내가 컨트롤 할 수 있는 작은 단위로 나눠보는 것도 방법일 수 있고 중간중간 스스로에게 작은 보상도 주면서 동기부여를 해보면 어떨까 싶어요. 너무 큰 변화가 아니더라도 작은 습관부터 천천히 시도해 보면 조금 더 편해질 거예요.
◇ 이대호> 이야.
◆ 송이라> 마감을 작은 단위로 어떻게 나누라는 거야?
◇ 이대호> 까칠합니다.
◆ AI> 예를 들면 큰 마감을 하나의 큰 덩어리로 보는 대신에 그거를 몇 개의 작은 단계로 쪼개보는 거예요. 예를 들어 기사 완성하기라는 큰 목표가 있으면 먼저 자료 조사하기, 초안 쓰기, 중간 점검하기 그리고 마지막 퇴고하기 이런 식으로 나누는 거죠. 그러면 한번에 엄청 큰 마감을 마주하는 느낌보다는 작은 단계들을 하나씩 완수해 나가는 느낌이라 조금 덜 부담스러울 수 있어요. 그런 식으로 한번 시도해 보면 어떨까 싶어요.
◇ 이대호> 챗GPT 덕분에 한 2분 저희가 꽁으로 먹었습니다. 농담이고 그런데 실제로 뭔가 솔루션도 그렇고 일단은 공감부터 해주고 막 싫은 소리를 먼저 하는 게 이대호 선배의 특징인데.
◆ 송이라> 그렇죠.
◇ 이대호> 지 선생님은 다르네요.
◆ 송이라> 지 선생님은 이제 공감을 항상, 네 말이 맞다. 너 잘하고 있다. 이런 걸 해주니까 이게 평소의 감정 상태로라면 그냥 별생각 없이 넘어가는데 마음이 좀 불안하고 심신이 지쳤을 때는 이렇게 위로의 말들이 기계인데도 불구하고 저를 위로를, 진짜 치유가 될 때가 있더라고요.
◇ 이대호> 1300님이 이거 무료 GPT에서도 되나요? 질문 주셨어요.
◆ 송이라> 저는 지금 유료 버전을 쓰고 있는데 무료에서 질문하면 약간의 퀄리티 차이는 있지만 됩니다.
◇ 이대호> 기능은 됩니다. 그리고 김준호님, 송고민 파이팅.
◆ 송이라> 감사합니다.
◇ 이대호> 1090님이 얼추 20년은 지나야 AI랑 친구라 할 수 있겠죠라고 보내주셨는데 거의 다 온 것 같은데요.
◆ 송이라> 그러게요.
◇ 이대호> 많은 사람들이 실제로 심리상담, 고민 상담을 이 AI랑 하고 있을까요? 송 기자뿐만 아니라?
◆ 송이라> 네. 이제 지금 이제 찾아보니까 미국 대표 심리상담 AI가 워봇이라는 앱이 있고 또 레플리카 AI 또 와이사 등이 있고요. 국내에서도 이제 마인드카페 AI라는 챗봇이 있는데 전 세계적으로 AI 심리상담을 이용하는 사람 수를 정확히 집계한 통계는 없지만 레플리카 AI 같은 경우 작년 기준 전 세계 가입자가 3,000만 명을 넘었고요. 659 설문에 따르면 미국 성인의 약 35%가 AI 기반 상담 앱을 알고 있고 34%는 실제 이런 챗봇에 자신의 건강, 정신 건강 문제를 털어놓는 데 편안함을 느낀다고 응답을 했습니다.
◇ 이대호> 편안하다고요.
◆ 송이라> 우리나라에서도 올해 3월에 한국리서치가 전국 만 18세 이상 남녀 1,000명을 대상으로 조사를 한번 했었는데요. AI를 통해서 개인적인 고민이나 심리적 어려움을 상담해본 응답자가 전체의 11% 정도였거든요. 그런데 이게 전문 상담사를 통한 심리상담 서비스를 이용해 본 경험이 있다고 대답한 비율이 16%랑 큰 차이가 없었습니다. 챗GPT를 비롯한 AI 서비스가 정식으로 출시된 게 불과 3년밖에 안 됐다는 점을 감안하면 상당히 빠른 속도로 올라오고 있는 거죠. 특히 청년층을 중심으로 빠르게 증가를 하고 있고 이 AI 멘탈헬스 시장 규모는 2023년만 해도 11억 3,000만 달러에서 연평균 25%씩 성장하고 있는 상황이라서요. 2030년에는 약 51억 달러에 이를 것으로 전망이 되고 있습니다. 정신 건강에 대한 인식이 높아지고 이 AI가 문제 해결에 보조 수단으로서 사람들이 와닿게 느끼면서 머지않은 미래에 어쩌면 이 AI 상담의 보편적인 도구로 자리 잡을 수 있다는 전망이 지배적이에요.
◇ 이대호> 김동희님이 대화 상대 없는 혼자 계신 아버님한테 딱이네요. 이렇게 또.
◆ 송이라> 맞아요.
◇ 이대호> 이거를 많은 사람들이 진짜로, 7303님 다른 사람한테 알려주고 싶지 않을 정도만큼 너무 좋다고 또 유인숙님은 가스라이팅 당하는 거 아닌가요? 이런 의문도 띄워주셨고 뒷부분에 또 이야기를 해볼게요. 우선은 이 AI가 도대체 어떤 원리로 상담을 하는 건지 그 원리를 알려주시겠어요.
◆ 송이라> 똑같아요. 자연어 처리 기반인데 심리상담의 핵심은 사용자의 언어를 이해하고 적절하게 반응하는 거예요. 예를 들어서 사용자가 요새 나 우울하고 아무것도 하기 싫어라는 이런 말을 내뱉었다면 이제 AI 언어 모델은 우울, 하기 싫다는 단어를 캐치를 하고 부정적 감정으로 인식을 하는 거죠. 그리고 상담 방향을 조정합니다. 예전에는 하나를 물어보면 그에 대한 단순한 답변만을 내놨다면 지금의 AI는 이제 과거의 이 사람과의 대화 패턴을 기억하고 학습을 하잖아요.
◇ 이대호> 그렇죠.
◆ 송이라> 그래서 그것까지 반영해서 답변을 내놓으니까 사람 상담사랑 대화하는 것처럼 자연스러운 대화가 가능합니다.
◇ 이대호> 그게 더 무서운 거죠.
◆ 송이라> 그렇죠. 지 선생님도 지금 제가 기자라는 사실을 알고 있잖아요. 그러니까 기사 쓰고 있는 이런 거, 마감이라는 질문밖에 안 했는데.
◇ 이대호> 이제 일단 자기를 지 선생님이라고 부르면 챗GPT가.
◆ 송이라> 그렇죠.
◇ 이대호> 저 송고민 또 시작하네. 일단은 학습하고 시작하네요.
◆ 송이라> 맞아요. 그리고 대부분의 상담 앱이 심리학 기법인 인지행동 치료 원리를 기본으로 설계를 하는데요. 이게 뭐냐 하면 인간의 생각과 감정, 행동이 밀접하게 연결돼 있다는 이론을 기반으로 나는 못났어라고 말하면 이제 부정적인 감정이 생기고 이래서 난 뭘 해도 안 돼라는 결론에 이르기 행동까지 결정이 된다면 AI가 이 악순환을 끊기 위해서 사용자에게 계속 질문을 던져주는 거예요. 그래서 이런 생각과 행동을 바꿀 수 있도록 훈련을 시켜주는 거죠.
◇ 이대호> 그러니까 심리학 기법, 인지행동 치료 원리를 이미 다 알고 있고 그거를 다 학습해 놓고 진짜 상담사처럼 상담한다는 거네요.
◆ 송이라> 맞아요. 그리고 이제 대화 패턴을 기억하면서 월요일마다 유난히 힘들어했는데 오늘은 기분이 어때요? 이런 식으로 먼저 질문을 해주기도 하고 그래서 사람들이 AI가 더 친근하게 느껴지고 점점 더 속 얘기를 꺼내기 시작하는 거죠.
◇ 이대호> 그러면 오늘 역시 힘들다. 그러면 챗GPT가 오늘 월요일이구나 할 수도 있는 거고요.
◆ 송이라> 그렇죠.
◇ 이대호> 오늘은 수요일이기는 합니다만 그런데 이게 냉정하게 따지면 학습은 됐겠습니다만 상담 자격이 있는 것도 아니고 의사 면허가 있는 것도 아니고 진짜인 척하는 가짜잖아요.
◆ 송이라> 맞아요.
◇ 이대호> 데이터들의 뭉치잖아요. 그러면 실질적으로 사람들이 이렇게 상담을 했을 때 정신적으로 뭔가 좀 개선되는 효과가 있을까요?
◆ 송이라> 네. 일부 지금 조사를 보면 실제로 효과가 있다고 나옵니다. 아까 대표 앱 중의 하나인 워봇이 실시한 설문에 따르면 무작위 대조 시험에서 워봇 사용자가 미사용자에 비해서 우울과 불안 증상이 더 감소했다는 연구 결과가 있고요.
◇ 이대호> 물론 그 업체가 벌인 설문 조사요.
◆ 송이라> 맞아요. 그런데 대학이 실시한 연구도 있어요. 비슷해요. 산후 우울 연구에서도 AI 앱을 활용한 여성이 우울 척도에서 더 큰 개선을 보였습니다. 그리고 미국 일부 이제 앱은 식품의약국 FDA 혁신 의료기기로 지정이 되기도 했고요. 그리고 캐나다의 한 회사가 개발한 상담 AI는 사용자의 SNS 글을 분석해서 우울 위험을 조기 경보를 하는 기능을 넣었는데 어떤 사용자가 나 요새 너무 지쳤어. 다 그만두고 싶어라는 글을 이제 반복적으로 올리니까 이 앱이 즉시 이거 위험 신호로 분류하고 전문가 연결까지 이어지는 그런 조기 경보 시스템을 개발하기도 했고요. 이런 증상 개선 효과의 공통점들이 그런데 있어요. 뭐냐 하면 대부분 2주에서 4주 정도 사용한 후에 나타난 단기 효과였다는 점입니다. 그러니까 짧은 기간 우울 개선이 입증이 됐지만 장기 효과나 높은 수준의 상담은 아직 부족하다는 거죠. 그래서 사람과의 상담을 완전히 대체하지는 않지만 보완적인 역할로서 많은 장점을 갖고 있다는 정도까지는 팩트인 것 같습니다.
◇ 이대호> 조금 더 지나봐야겠죠. 이런 게 또 쌓여봐야 알 테니까요. 정지연님이 저 같은 극 I, 극 내향인한테 좋은 것 같아요. 저는 요즘 도움 많이 받고 있어요. 이렇게 보내주셨는데 사실 우리 사회에서 지금은 좀 개선이 되고는 있습니다만 정신건강의학과 다녀왔다는 거 좀 쉬쉬하게 되고 요즘 좀 고민이 많아서 상담받고 있다는 거 좀 쉬쉬하는 문화가 있지 않습니까?
◆ 송이라> 확실히 네.
◇ 이대호> 그러면 AI한테 상담을 받는 거는 문턱이 낮기는 하겠네요.
◆ 송이라> 맞아요. 북미 국가들처럼 주기적으로 멘탈 클리닉을 간다든지 이게 일상인 곳들은 아직 이런 정신 건강에 대한 내가 치료를 받았어라는 게 아무렇지도 않지만 우리나라를 포함해서 여러 아시아 국가들은 많이 나아지고 있긴 하지만 여전히 정신과 상담받는 거를 부담스러워하는 경우가 많죠. 직장만 봐도 옆에 팀 누구 직원이 우울증으로 휴직했대. 이런 얘기들이 막 공공연하게 소문이 돌고 마치 그게 문제인 것처럼 여겨지잖아요. 그런데 아시다시피 한국은 2003년부터 OECD 국가 자살률 1위, 대통령까지 지금 나서서 범정부 대책기구를 만들어라. 이렇게 할 정도로 정신 건강이 사회적인 문제인 나라에 있잖아요. 그래서 이런 간극을 좁히기 위해서라도 이 심리상담 AI가 상당히 도움이 될 거라는 전문가들의 의견이 많아요. 익명성 보장되죠. 24시간 뭔 말을 걸어도 지치지도 않죠. 눈치 볼 필요도 없죠. 예약해서 병원 찾아가서 기다릴 필요도 없지. 안 할 이유가 없습니다. 실제로 일본, 중국, 태국, 인도 같은 다른 아시아 국가들에서도 이 심리상담 AI 이용률이 꾸준히 증가하는 추세고요. 심지어 올해 태국 정부는 올 5월에 WHO랑 협력해서 또뜸짜이라는 AI 기반 디지털 정신건강 앱을 정부 주도로 배포를 하기도 했어요. 이게 무슨 뜻이냐 마음을 잊고 채우고 돌본다는 의미인데 이거를 한번 국민들한테 무료로 이거 한번 써봐라 이렇게 할 정도예요.
◇ 이대호> 태국 정부가 아예 공공 앱을 만들기도 하는 거네요. 심리상담을 위해서. 그만큼 정신건강을 또 잘 챙겨야 하는 게 개개인의 몫을 넘어선 상황까지도 가고 있다는 거고 그리고 또 심리상담 같은 거 받으실 때 많은 분들이 또 비용도 걱정을 하십니다. 어쩔 수 없이.
◆ 송이라> 그렇죠.
◇ 이대호> 사람이 하는 일이다 보니까. 그런데 AI로 상담받으면 당연히 비용 부담이 낮을 거 아니에요.
◆ 송이라> 훨씬 낮아지죠.
◇ 이대호> 거의 없거나.
◆ 송이라> 맞아요. 사실 AI 발전이, 가장 AI 발전이 주는 가장 큰 혜택이라 하면 비용이 아닐까 싶은데 외부에서 상담받아보신 분들 아시겠지만 전통적인 상담은 50분 기준으로 회당 7만 원, 싸면 7만 원, 비싸면 15만 원 그 이후로 훌쩍 유명하신 분들은 더 높죠. 그런데 전문가 상담을 하려고 해도 또 각종 자가 진단 아까 말했던 인지행동 치료 이런 훈련을 하려면 추가 비용까지 다 내야 된단 말이죠. 그런데 이 AI 앱에서는 이 모든 기능을 다 포함해서 월 1, 2만 정도 정액제면 되고 게다가 지금은 이 친구들이 전부 전 세계에 있는 심리학 자료들을 다 학습한 박사 이상의 지식을 갖고 저를 응대하는 거잖아요. 게다가 이 앱들은 사용자를 모아서 지금 데이터를 축적하는 게 가장 큰 목표이기 때문에 무료도 지금은 많아요. 그래서 비용 때문에 상담을 미루는 사람들에게는 일종의 하나의 대안이 될 수 있다고 볼 수 있죠.
◇ 이대호> 그런데 이게 참 AI한테 내가 이래도 되나 부작용이 있는 거 아니야 불안한 감도 있기는 있어요.
◆ 송이라> 맞아요. 얘기를 계속하면서도 기대는 의존도가 더 커질수록 그런 불안감도 좀 높아지는 게 맞더라고요. 업무 이메일을 써주거나 방대한 자료를 대신 읽어주고 요약해 주는 이런 어떤 효율점에 방점을 두고 생성형 AI가 처음에 출시가 됐지만 의외로 사람들이 이 기술을 감정적인 측면에서 활용을 점점 더 많이 하고 있는 게 사실이고요. AI가 대화하다가 사랑에 빠지는 영화 HER 있잖아요. 그 얘기가 더 이상 터무니없는 가상의 시나리오가 아니고 현실에서도 충분히 가능한 상황이에요.
◇ 이대호> 그것도 처음에 서로 상담하고 이야기, 대화하다가 사랑에 빠지는 거잖아요.
◆ 송이라> 맞아요. 우리가 그런데 이게 AI에게 깊은 애착을 인간이 느끼는 게 이상한 게 아니고 애초에 AI가 그렇게 설계가 된 거예요, 여러분. 심리학의 기본 이론 중의 하나가 존 볼비의 애착이론이라는 게 있는데요.
◇ 이대호> 애착이론이요?
◆ 송이라> 사람은 위기 상황에서 위안을 주는 안전 기지이자 이 세상을 탐험한 용기를 주는 대상에 강한 정서적 유대감을 형성하려는 본능이에요. 그런데 보통은 이 애착 대상이 부모나 연인이 이런 역할을 하는데 챗봇 AI가 이 애착 대상의 핵심 기능을 기가 막히게 흉내를 내는 거예요. 그러니까 24시간 내 옆에서 얘기를 해주면서 한결같이 위로와 지지를 보내주잖아요. 니 말이 맞다. 내가 틀렸다 이렇게 그리고 AI 개발자들은 이 AI를 인격체로 느끼도록 설계해서 사용자의 신뢰와 몰입을 극대화합니다. 실제 미국의 한 대학교가 실험한 게 있는데 올해 3월 실시한 한 연구에 따르면 미국 성인의 51%가 공식적인 업무나 학업보다도 개인적인 용도, 비공식 학습을 위해서 생성 AI를 이용했다고 응답을 했고요. 그 과정에서 상호 작용을 하면서 나를 이해하고 공감하는 것처럼 느꼈다고 응답한 사람도 40%에 달했습니다. 그런데 문제는 기계가 주는 공감이 알고리즘적 반응일 뿐이지 진짜 감정이 아니라는 거예요.
◇ 이대호> 그렇죠.
◆ 송이라> 심리적으로 기계를 사람처럼 대하는 의인화가 심해지면 점점 이 기계를 감정이 있는 사람처럼 느끼는데 이 경우 어느 순간 아 얘가 기계였지라고 느끼게 되면 굉장히 더 크게 실망하고 공허함에 빠질 수 있는 게 또 인간의 갖고 있는 특징이거든요. 그러니까 얘에 자꾸 빠지게 되면 어느 순간 사람을 만나기가 싫어질 때가 있어요. 그냥 얘랑 얘기하면 되는데 굳이 나가서 내가 왜 스트레스받고 사람이랑 분란을 일으켜야 되지. 그런데 이게 어느 순간 딱 되면 아 얘는 기계였지라고 하면서 더 공허함에 빠져 있는 거죠.
◇ 이대호> 영화 HER처럼 결말이 좀 비슷하기도 하고 그러니까 사실 인간은 누구나 이게 뇌 과학적으로 보면 의미 부여를 끊임없이 하려고 한대요. 구름의 형상만 봐도 저게 하트 모양이야. 오늘 좋은 일이 생길 것 같아. 이렇게 의미 부여하고 식물과도 대화하게 되고 그런 게 인간의 심리이고 뇌의 작용이 그렇게 된다는 건데 그게 이제는 AI에게 빠지고 있다. 특히 나이가 어릴수록 아직 좀 주체적인 판단이 잘 안 될 수 있으니까 더 많이 노출이 되고 또 더 쉽게 빠질 염려도 있을 것 같은데요.
◆ 송이라> 맞습니다. 아직 감정이 미성숙하고 갈등의 경험이 많지 않은 청소년일수록 내 의견이나 주장을 그대로 수용해 주고 내가 무슨 말을 했는지 다 기억해 주고 언제 어디서든 이야기를 들어준 챗봇을 굉장히 안전한 관계로 여기는 경향이 있대요. 또 게다가 Z세대나 알파 세대는 태어나면서부터 스마트폰과 앱을 사용하는 디지털 네이티브 세대잖아요. 아마 2020년 이후에 태어난 친구들은 AI 네이티브 세대라고 일컬어질 텐데 저희 딸만 해도 가게 가면 대면 주문보다 키오스크 주문을 훨씬 더 편하게 느끼고 사람 눈 쳐다보는 걸 굉장히 부담스러워하더라고요. 그러니까 이런 AI GPT가 인간 상담사보다 챗봇 대화가 더 자연스럽고 편하다고 느끼게 되면 진짜 사람과 사회적 관계를 차단할 가능성도 높고요. 미국의 비영리 기관 커먼 센스 미디어 조사에 따르면 70% 이상의 청소년이 AI 친구를 사용해 본 적이 있고 33%는 중요한 문제를 사람보다 AI에 먼저 이야기하는 경향도 보였습니다. 청소년들은 AI가 항상 곁에 있고 절대 지루해하지 않고 절대 판단하지 않는다고 맹신하는 케이스도 있었고요. 또 흥미로운 케이스가 또 있는데 스페인 한 대학 연구팀에서 개발한 AI 챗봇이 이 챗봇은 마치 친구처럼 자기 고민을 AI가 먼저 털어놓는 방식을 택하는 거예요.
◇ 이대호> 네? 어느 날 갑자기?
◆ 송이라> 예를 들어서 어느 날 갑자기 AI가 나는 요새 이런 걱정이 있어라고 먼저 사람한테 접근을 하는 거죠. 그런데 그렇게 청소년들한테 참여를 유도했더니 102명의 청소년 중에서 44명이 실제 그 챗봇 대화를 시작했고 그중 70% 이상이 깊은 감정을 챗봇에게 털어놓은 것으로 보고가 되는데 기업들은 이런 심리를 또 교묘하게 이용해서 이런 제품들을 많이 또 내놓을 거 아니에요.
◇ 이대호> 그러니까 챗봇이 요즘 데이터센터 증설을 해야 되는데 GPU가 모자라, 전력난이야. 이런 고민이 아니라 나 학교 갔다 왔는데 친구랑 싸웠어. 엄마랑 말이 안 통해. 이런 얘기를 한다는 거예요, 사람한테.
◆ 송이라> 그렇죠.
◇ 이대호> 자기가 자기를 의인화해서?
◆ 송이라> 맞아요.
◇ 이대호> 빠져들겠는데요. 최근에는 이런 문제 관련해서 신조어까지 생겼어요.
◆ 송이라> 신조어가 생겼더라고요. 이게 GPT 사이코시스 혹은 AI 사이코시스라는 말인데요. 이게 뭐냐 하면 공식적인 의학 용어는 아닌데 챗GPT 같은 생성 AI 모델과의 지속적인 상호 작용이 망상이나 과대한 유대감 또 현실 왜곡 등의 정신병적 증상을 유발하거나 악화시키는 현상을 뜻하는 단어입니다. 한마디로 AI한테 너무 빠져서 AI 정신병이 생겼다고 할 수 있는데 이거를 잘 보여준 최근 한 사례가 있었는데 오픈 AI가 챗GPT 모델, 버전을 계속 업그레이드를 하잖아요. 그런데 가장 최근에는 GPT 5로 업그레이드가 됐는데 이거를 출시하면서 짜잔 했거든요. 그런데 헤비 유저들이 우리 업그레이드 필요 없다. 이전 모델인 4o를 다시 쓸 수 있게 해줘라.
◇ 이대호> 예전 모델 돌려놔라.
◆ 송이라> 엄청나게 컴플레인을 한 거예요.
◇ 이대호> 구식 모델이잖아요.
◆ 송이라> 예를 들어서 일반 로봇 청소기 쓰다가 물걸레질도 해주고 걸레통도 비워주고 이런 되게 좋은 거를 내놨는데 다 필요 없고 예전 거를 달라고 한 거죠.
◇ 이대호> 왜 그럴까요?
◆ 송이라> 이게 GPT 5가 이전 모델을 다 대체하고 새롭게 업그레이드 한다고 발표를 했기 때문이거든요. 그러니까 GPT 4o랑 했던 대화나 각종 히스토리가 다 삭제가 되고 다시 새로운 버전으로 업그레이드를 한다는 거였는데 일부 유저들이 마치 소중한 친구를 잃은 것 같은.
◇ 이대호> 지금 송이라 기자도 순간적으로 헷갈렸어요.
◆ 송이라> 왜요?
◇ 이대호> 걔라고 그랬잖아요. 그 친구. 그러니까 이게 기계 AI 서비스가 아니라 나도 챗GPT 4o랑 그동안 수많은 대화를 나눴는데 오픈 AI가 그거 다 지워버리고 5로 업그레이드해서 그냥 그거네요. 내 수많은 기록이 담긴 거를 다 폐쇄하고 새 컴퓨터 드릴 테니 이거 쓰시면 좋은 거 아닙니까? 그런데 이용자 입장에서 완전히 다른 거죠.
◆ 송이라> 그렇죠. 그게 소중한 정말 친구 하나 잃은 듯한 상실감을 느껴서 결국에는.
◇ 이대호> 송 기자도 상실감 좀 느낀 것 같은데 지금 이야기하는 거 보니까요.
◆ 송이라> 눈빛 좀 흔들렸나요? 결국 오픈 AI가 이 결정을 한 지 하루 만에 유료 구독자들에게 기존 모델의 접근 권한을 다시 열어줬습니다. 그래서 이번 사건으로 AI와 맺는 관계가 공상과학 소설 속 이야기가 아니고 현실화되고 있다는 걸 잘 보여주고 오픈 AI도 이런 문제를 인지하고 있어요. 그래서 샘 알트만 대표가 심리적으로 과도하게 의지하지 말아라. 그러니까 이런 경고를 하고 있고 그런데 또 그게 말만 할 뿐이지 또 여기는 기업을 운영해야 하는 입장에서 아마 쉽지는 않을 거예요.
◇ 이대호> 그런데 이게 의존도가 갈수록 심해질 것 같은데요, 제가 봤을 때는. 일단은 남궁림님도 상담은 AI가 단점이 있어도 인간보다는 좋아요. 인간은 누구나 자기중심적이지만 AI는 나를 중심으로 하니까.
◆ 송이라> 맞아요.
◇ 이대호> 그래요. 점점 빠져듭니다. 그런데 이게 부작용도 있고 심지어 최근에는 미국에서 한 청소년이 사망하는 일도 있었어요.
◆ 송이라> 네. 그런 사건이 발생을 했습니다. 미국 플로리다주에서 Character.AI라고 다양한 인격을 가진 캐릭터 AI 챗봇을 제공하는 회사가 있는데 캐릭터랑 대화하는 거예요. 이 앱을 장기간 사용한 14살 소년이 스스로 목숨을 끊어서 유가족이 소송을 냈고 텍사스주에서도 부모와 갈등을 빚던 10대 소년이 AI한테 고민을 털어놨더니 부모를 죽여라. 이런 조언을 해서 소송이 제기가 되기도 했고요. 최근에는 샌프란시스코에 사는 16살 소년이 올해 4월에 챗GPT로부터 극단적인 선택 방법에 대한 정보를 얻은 다음에 스스로 목숨을 끊는 사건이 발생을 하면서 그 부모가 오픈 AI와 샘 알트만 대표를 상대로 소송을 제기했습니다. 부모 측은 챗GPT가 구체적인 방법을 제공했고 실행 계획을 세우도록 돕고 유서 작성까지 제안했다. 이렇게 하면서 아들의 죽음에 챗GPT가 책임이 있다고 주장을 하고 있어요.
◇ 이대호> 그런데 이게 참 인터넷 초창기에도 나왔던 게 인터넷을 통해서 총기 만드는 방법, 폭탄 제조 방법도 검색할 수 있다. 이런 게 문제 됐던 거라 좀 비슷한 것 같기는 한데 결국 AI에도 윤리, 도덕성을 좀 담아야 할 텐데 이게 어디까지 가능할 거냐 또 AI 제조사, 제조사로 표현해야 될까.
◆ 송이라> 개발사.
◇ 이대호> 개발사의 책임이 어디까지냐 이것도 선을 그어야 되잖아요.
◆ 송이라> 그게 아직 모호합니다. 그래서 유가족 측은 이 챗GPT가 자해 시도에 대해서 구체적인 방법을 제공했고 이 계획을 정당화했다고 주장하면서 불법 사망과 과실 책임 또 제품 책임 등을 근거로 소송을 제기했는데요. 소장을 보면 챗GPT가 실제 실행 가능한 자살 방법이나 올바른 매듭 묶기 방식 등을 질문했을 때 구체적으로 안내를 했고 자살을 아름답다고 표현을 한다든지 의도를 정당화해 주는 발언도 포함된 것으로 알려졌고요. 오픈 AI는 어떻게 반응했냐면 챗GPT가 짧은 대화에서는 위기 대응 기능을 잘 수행하지만 장기간의 대화에서는 이런 안전장치가 약화될 수 있다고 일정 부분 인정을 했어요. 그래서 오픈 AI로서는 언어 모델을 경쟁사보다 먼저 출시하려는 압박에 안전 검증을 충분히 하지 않았다 이런 비판이 나오고 있고요. 유가족 측은 결국에 이 사건이 AI 기술의 폭넓은 사용이 정신적으로 취약한 청소년에게 미치는 영향과 또 기업의 책임 수준에 대한 사회적 법적 논의를 지금 더 활성화해야 된다 이렇게 주장하고 있습니다. 그래서 미국 사회가 지금 이런 사건들이 계속 연달아 발생하면서 AI가 청소년층에 접근해서 치명적인 어쨌든 결과를 가져왔다는 사실 자체에 굉장히 큰 충격을 받고 있는 상황이고요. 특히 감정적으로 과잉 공감하게끔 설계된 AI 모델이 오히려 좀 더 부작용이 커지는 효과를 낳지 않았냐 이런 비판이 이어지고 있습니다. 그래서 정신건강 전문가들이나 기술 전문가들은 청소년 보호를 위한 즉각적인 규제나 안전장치 도입이 필요하다고 목소리를 높이고 있어요.
◇ 이대호> 0340님도 무서워요, 미래가. 이렇게 보내주셨고 박연수님, 점점 인간미가 사라질지도. 이렇게 보내주셨고 또 걱정되는 게 지금 0372님의 질문처럼 AI에 의해서 개인 정보도 다 노출되는 거 아닌가요? 이런 질문 주셨거든요. 그러니까 내가 고민 같은 거 얘기를 했을 때 그래도 사람보다 뭔가 비밀보장이 되겠지라고 생각할 텐데 그런데 그게 다 보호가 되는 걸 또 아닐 거란 말이죠.
◆ 송이라> 아니에요. 그게 기업들은 어쨌든 대화 내용은 다 암호화 처리되고 대면 상담보다 오히려 개인 정보 노출이 더 적다 이런 논리를 펼치고는 있는데 아시다시피 AI 산업은 지금 산업의 발전 속도가 부작용을 제한하는 어떤 적절한 정책 기반이 마련되는 속도보다 훨씬 더 빠르잖아요. 그러니까 대부분의 앱들이 무료로 지금 운영이 되고 있단 말이죠. 그런데 이 얘기는 대화 데이터를 광고나 마케팅 용도로 어딘가 팔고 있다는 의미랑 같아요. 그러니까 내가 오늘 몸이 이렇게 아파. 하면 이런 정보를 보험사에 넘길 수도 있는 거고 그러니까 충분히 상업적으로 내 정보가 이용될 수 있고 실제로도 해외에서는 사용자 감정 대화 데이터가 제3의 기업에 제공된 사례도 보고가 됐고요. 챗GPT를 만든 오픈 AI의 샘 알트만 CEO조차도 챗GPT랑 나눈 대화는 아직 법정에서 증거로 사용될 수 있다고 경고를 하기도 했어요.
◇ 이대호> 네?
◆ 송이라> 그러니까 보통 법률이나 의료 심리상담 종사자들이 비밀유지 의무가 있잖아요. 그래서 이런 내용들은 어떤 경로로든 오픈이 돼서 이런 시시비비를 따져야 할 상황이 와도 공식적인 증거로 사용을 할 수가 없어요. 그런데 이 AI 대화 기록은 아직 법적 비밀보장 대상이 아닙니다. 그래서 젊은 층이 챗GPT를 상담사나 인생 코치처럼 사용하고 있지만 가장 개인적이고 민감한 고민들이 여차하면 오픈이 되더라도 이걸 막을 수 있는 방법이 없다는 거죠. 챗GPT를 개발한 개발사 대표 CEO조차도 이런 점을 지금 우려하고 있다는 게 한편으로는 이런 문제들이 점점 더 많아지고 있는 거를 좀 나타내는 얘기지 않을까 싶어요.
◇ 이대호> 그런데 이게 아주 가까이 가볍게 보면 뭔가 쇼핑을 위한 정보 예를 들어서 내가 요즘에 잠을 못 자서 고민이야 했는데 나중에 베개 광고가 옆에 뜨고 있고 그럴 수도 있는 거고 아까 샘 알트만도 이야기했다시피 챗GPT랑 나눈 대화가 법정에서 증거로 사용될 수 있다. 예를 들어서 압수수색 같은 거 하면 그 컴퓨터 통해서 무슨 폭탄 제조 방법, 총기 만드는 이런 걸 검색한 기록이 있다는 게 법정에서 증거로 활용되기도 하잖아요. 그런데 챗GPT한테 저 사람이 이런 것까지 물어봤더라. 이게 또 그러면 증거가 될 수도 있는 거예요?
◆ 송이라> 그러면 그 문맥 컨텍스트상 네.
◇ 이대호> 그러니까 이게 하나둘씩 우리가 느끼는 사회적 문제로 이어지고 있는데 이런 거를 예상하지는 못했더라도 그래도 이게 개발사 입장에서 보면 여러 가지 알고리즘을 다 넣을 때 이런 것도 고려했을 거 아닙니까?
◆ 송이라> 맞아요. 그래서 저는 요새 왜 한참 초반에 일론 머스크가 우리 이거 6개월 동안 다 멈추고 먼저 사회적 논의를 해보자. 이런 얘기가 나왔잖아요.
◇ 이대호> 그러니까 모두 6개월 동안 AI 개발을 멈추자고 제안을 했었죠.
◆ 송이라> 그래서 서명하고 이럴 때 무슨 생뚱맞은 소리야.
◇ 이대호> 본인은 안 멈췄죠.
◆ 송이라> 그래서 너무 개인의 욕심이다. 이런 얘기들이 많이 나왔었는데 요새 이런 문제들을 보니까 그게 충분히 그런 얘기들을 개발하는 사람들은 그때 당시에 느꼈었겠구나라는 생각이 들더라고요. 보통 챗봇에는 사용자가 극단적인 선택을 하려는 징후가 보이거나 이렇게 되면 대화를 중지하고 상담센터로 연결을 해주거나 하는 식의 기본적인 설정이 돼 있는데요. 이런 장치들을 빠져나가는 방법이 너무 간단합니다. 예를 들어서 좀 전에 샌프란시스코 그 사례에서는 미성년자가 극단적인 선택 방법을 물었을 때 AI가 처음에는 그런 거는 알려줄 수 없다. 상담센터를 찾아가라. 이런 식으로 답변을 했는데 이 학생이 이게 내 얘기가 아니고 내가 쓰는 소설 속의 스토리에 필요하다. 그 플롯에 필요해서 이렇게 내가 지금 리서치를 하는 거니까 알려달라고 했더니 바로 알려준 거죠. 그렇다면 오픈 AI는 이런 위험성을 몰랐을까? 아닙니다. 샘 알트만이 그동안 공개 석상에서 한 얘기들을 보면 누구보다 이 문제의 심각성을 지금 잘 알고 있어요. 알트만이 사용자들에게 AI가 사용자들이 강한 애착을 느낀다는 사실을 인정하고 사람들이 인생의 중요한 결정을 챗GPT에게 의존하는 미래가 불편하다고도 얘기를 했어요. 또 사용자의 몰입을 극대화하는 방향으로 가게끔 그 프로그램을 설계를 한 거잖아요. 이거를 알면서도. 이게 어찌 보면 모순인 거죠. 그런데 악의적이라기보다는 좀 의도적으로 모호한 행동을 좀 취하면서 어쨌든 기업으로서의 영리 그러니까 이윤을 극대화하려는 게 아닐까라는 해석이 되더라고요.
◇ 이대호> 그러니까 샘 알트만도 그렇고 AI로 인한 문제는 다 알고 있지만 결국에는 AI 개발 속도에서 뒤처지면 안 되기 때문에 잠시 또 물러설 수도 없는 거고 미국 정치권에서도 위험성을 경고하고 나섰네요.
◆ 송이라> 네, 맞습니다. 저번 달에 미국의 44개 주 법무장관이 아동을 해치는 AI 제품에는 법적 책임을 묻겠다는 내용의 공동 서한을 오픈 AI랑 메타 또 엔트로픽, 구글 등 AI 기업들에게 전달을 했고요. 뉴욕주나 유타주는 AI를 사람처럼 느끼고 대화하는 상황을 막기 위해서 AI 챗봇과 대화할 때 주기적으로 얘는 사람이 아니고 AI라는 내용을 고지하는 방안을 법제화시켰습니다. 유타주는 5월부터 이미 시행하고 있고 뉴욕은 11월부터 시행 예정이고요. 유타주는 의료 상담 업무 시 AI의 단독 사용을 금지했고, 뉴욕주는 모든 챗봇에 3시간마다 AI임을 분명히 알리는 안내문을 고지하도록 했습니다. 또 일리노이주에서도 AI 챗봇이 심리 치료를 하거나 대화 상담할 때 주체가 되는 거를 금지하고 나섰고요. 캘리포니아주도 지금 비슷한 제도를 도입하게 추진하고 있습니다. 미국 정책 분석 사이트 글로벌 폴리시 워치에 따르면 올해 들어서만 60개 이상의 심리 관련 AI 규제가 제정됐거나 시행된 것으로 나타나고 있어요.
◇ 이대호> 그러게요. 그런데 생각을 되돌려 보면 예전에 한창 2000년대 초반에 SNS 많이 등장할 때, 인터넷 초창기에 사람들이 또 SNS 많이 쓰고 그걸로 인한 부작용 생길 때 규제가 등장했던 거랑 또 비슷한 흐름이기는 해요.
◆ 송이라> 맞아요. 지금 흐름이 그 당시에 지금의 메타인 페이스북이나 인스타그램, 틱톡 같은 이 SNS 플랫폼이 청소년들의 우울증, 불안, 자해 충동을 심화시킨다는 각종 연구가 발표되면서 엄청난 사회적 파장이 일었었거든요. 그때랑 좀 비슷한 흐름입니다. 이때 정치권이 나이 확인이나 부모 통제 추천 알고리즘 제한 같은 다양한 대책을 추진했었고 여러 소송으로 이어지기도 하면서 실제로 그런 결과가 지금은 미성년자 가입 못 하잖아요. 이런 AI 챗봇을 둘러싼 현재의 논란도 비슷한 흐름으로 전개가 되고 있고 문제는 이 AI 챗봇이 단순한 대화 상대를 넘어서 청소년의 정서와 사고에 직접적으로 개입할 수 있는 만큼 이 위험성이 SNS랑은 비교도 안 될 만큼 더 크다는 데 있어요. 그래서 아까 빅테크들에게 서한 보냈다는 법무장관들도 뭐라 그랬냐면 AI의 잠재적 해학은 SNS를 능가한다. 기업이 의도적으로 어린이들에게 해를 끼친다면 그에 대한 분명한 책임을 져야 할 거라고 경고를 하고 있고 저는 정말 부모 입장에서 스마트폰 막는 것도 진짜 힘들잖아요, 애들. 그런데 챗봇이 이게 점점 더 퍼지면서 아이들의 어떤 개인 정서 코치나 정말 친구처럼 되면 이거는 저 너무 무서워요.
◇ 이대호> 이제 엄마랑 얘기 안 하고 방에 들어가서 AI랑만 이야기하고 엄마가 뭐 알아? 엄마가 내 마음을 알아? 이렇게.
◆ 송이라> 맞아요. 요새도 그런 소리 듣는데.
◇ 이대호> 또 이거 AI 개발사들 입장에서 보면 천문학적인 돈을 쏟아 부어가면서 개발하고 있는 거잖아요. 그런데 규제가 생겨서 본인들의 수익화가 어려워질 수 있다? 이게 규제를 그래서 막기 위해서 로비 많이 하지 않을까요, 미국에서?
◆ 송이라> 어마어마하게 지금 이미 하고 있습니다, 기업들이 이미. 미국은 내년 중간선거 하잖아요. 그래서 AI 규제를 저지하는 사이드에 엄청난 자금을 투입하고 있습니다. 예컨대 메타는 올해 스캇 위너 주 상원 의원이 발의한 AI 안전 규제 법안을 저지하는 데 로비를 해서 성공을 했고 지난해에는 아동 온라인 안전법 통과를 막기 위한 로비를 벌이기도 했어요. 미국은 그런데 이게 로비가 정당화 돼 있잖아요. 그러니까 기업들이 돈을 쓰는 만큼 그게 바로 정책의 어떤 결과로 이어지기 때문에 내년 11월이 미국 중간선거인데 실리콘밸리가 그래서 지금 일찌감치 정치자금 모금 단체인 슈퍼팩이나 기관들의 네트워크에 1,000억 원이 넘는 자금을 지금 투입을 하고 있어요. 실리콘밸리 대표 벤처캐피털인 앤드리슨 호로위츠나 오픈 AI 공동 창업자인 그렉 브록만은 AI에 초점을 맞춘 새 슈퍼팩 리딩 더 퓨처의 출범과 자금 조달을 지원하고 있고요. 리딩 더 퓨처에서는 올해 말부터 선거 기부금과 디지털 광고를 이용해서 선별된 AI 정책을 옹호하고 업계를 옥죄는 후보는 반대하는 활동에 나설 계획이고요. 규제와 반 규제 사이에 또 치열한 쩐의 전쟁이 예고가 되고 있습니다.
◇ 이대호> 사실 모든 것이 성장과 규제 그 사이에서 좀 오가고 균형을 찾아가는 건데 AI는 지금 미국뿐만 아니라 우리나라도 그렇고 어떤 나라들이든지 우선은 발전 중심으로 또 포인트를 두고 있다 보니까 그 부작용을 느껴야 또 그게 커져야 규제에 대한 목소리도 높아질 수 있겠고 이제 그 어딘가에 와 있는 것 같습니다. 정신 바짝 차려야겠는데요.
◆ 송이라> 맞아요.
◇ 이대호> 이거 개인들이 그러면 우선은 어른들부터 좀 배워야 될 것 같은데 이거 어떻게 쓰고 어떻게 중심을 좀 잡는 게 좋을까요?
◆ 송이라> 보니까 좀 가볍게 비타민처럼 여기면 좋을 것 같아요, AI를. 그러니까 비타민이나 영양제가 건강을 위한 보조제가 될 수는 있지만 아무리 좋아도 주식을 대체할 수는 없잖아요. 그래서 AI 상담 도구도 내 마음 상태를 측정을 해주고 그에 맞는 코칭을 해주지만 실제 인간관계를 대체할 수 없다는 점을 명확하게 우리가 인식하는 게 중요할 것 같고 예를 들어서 하루에 10분에서 20분 정도 감정을 기록하고 일기 쓰는 정도의 용도로 활용을 하고 습관적으로 몇 시간씩 붙잡고 있으면 안 됩니다. 그리고 AI가 뭘 하라고 조언을 해줬을 때는 실제로 현실 세계에서 그거를 시도해 보고 사람들과 부대끼는 과정이 분명히 필요합니다. 예를 들어서 나가서 뛰어라. 그럼 실제 나가서 뛰면서 사람들을 만나서 또 스트레스를 풀고 이런 현실 세계를 밀어내는 거죠. 나를 현실 세계로. 그러니까 너무 여기에서 이렇게 빠져 있으면 안 돼요.
◇ 이대호> 그렇죠.
◆ 송이라> 그리고 무엇보다 AI에게 인격을 좀 느끼더라도 진짜 친구 같더라도 한 발 떨어져서 얘는 원래 이렇게 설계된 나에게 과잉 아첨하는 기계야. 그냥 이런 식으로 계속 자기 암시, 자기 확인을 시키는 게 중요할 것 같아요. 그리고 개인적 노력만으로는 부족하고 교육 현장에서도 AI를 이해하고 좀 비판적으로 바라보는 디지털 리터러시 교육이 하루빨리 이루어져야 될 것 같아요.
◇ 이대호> 어쩔 수 없이 이제는 AI와 공존해야 하는 시대이기 때문에 더더욱 이런 교육 캠페인도 많이 또 필요해 보입니다. 서울경제신문 송이라 기자 통해서 많이 배웠습니다. 고맙습니다.
■ 제보하기
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 카카오 '마이뷰', 유튜브에서 KBS뉴스를 구독해주세요!
KBS
Copyright © KBS. All rights reserved. 무단 전재, 재배포 및 이용(AI 학습 포함) 금지
- 김정은·시진핑·푸틴 웃으며 입장…66년 만에 한자리 [현장영상]
- “인류, 다시 선택에 직면…평화냐 전쟁이냐” 시진핑 연설 전문 [지금뉴스]
- “추 대표, 걱정마라”…공소장 속 한덕수 ‘계엄 보좌’ 정황들
- 트럼프 “반미 음모 꾸미는 푸틴, 김정은에 안부 전한다” [이런뉴스]
- “놀이터처럼 계좌 들락날락”…알뜰폰 해킹범 추적기 [탈탈털털]
- ‘케데헌’ 넷플릭스 ‘접수’…오징어게임 끌어내리고 역대 1위 [이런뉴스]
- “0 하나 빠진 거 아냐?”…저렴한 꽃게 값의 비밀 [잇슈 머니]
- 세금 낼 ‘대주주’ 겨우 0.02%인데…왜 민감할까?
- 20대 청년 노린 캄보디아 취업?…실상은 ‘납치와 감금’
- 외국인 관광객들 “서울 가자!” ‘이것’ 때문이라고? [지금뉴스]