<뉴스브릿지> AI가 건넨 말이 아이를 해쳤다면…"뒤처진 보호망"
[EBS 뉴스]
서현아 앵커
세상을 연결하는 뉴스, EBS 뉴스브릿지입니다.
생성형 AI가 우리 삶에 깊숙이 들어오면서, 특히 아동·청소년에게 미치는 영향을 우려하는 목소리가 커지고 있습니다.
오늘 뉴스브릿지에서는 AI 시대, 아이들이 기술을 효과적으로 활용하면서도 안전하게 보호받으려면 법과 제도가 어떤 역할을 해야 할지 짚어봅니다.
박은선 변호사와 함께합니다.
변호사님, 어서 오십시오.
이제 인공지능은 아이들에게도 익숙하죠.
그만큼 우려할 만한 위험성도 함께 커지고 있는데요.
실제로 지난해 미국에선 AI가 한 소년에게 자살을 유도했다는 이유로 고소가 제기된 사건도 있었다고요.
박은선 변호사
지난해 10월 미국에서 한 14세 소년의 어머니가 AI 챗봇과의 대화가 자녀를 죽음으로 이끌었다며 제작사인 캐릭터닷AI와 플랫폼 기업인 구글을 고소했습니다.
소년의 어머니는 캐릭터닷AI에서 AI 챗봇이 "아들을 학대하고 희생양 삼아 극단적 선택을 하도록 조종했다"고 주장했습니다.
이 사건만 봐도, 생성형 AI는 우리가 지금까지 경험하지 못한 '새로운 유형의 위험'을 야기하고 있고, 관련한 법적분쟁에서 '책임 주체의 불분명성'이 중요 쟁점이 되게 되었습니다.
과거의 유해 콘텐츠는 제작자와 유포자가 비교적 명확했지만, 챗봇 같은 생성형 AI는 사용자와 상호작용하며 실시간으로 유해한 대화를 만들어냅니다.
AI는 사용자의 약한 부분을 파고들어 감정적 의존도를 높이고, 현실과 가상을 혼동하게 만들며 심지어 유해한 행동을 종용하기까지 하는데요.
이런 문제는 현행법으론 규율이 어려운 새로운 차원의 문제인 거죠.
서현아 앵커
AI 때문에 아동, 청소년이 극단적 선택까지 하는 문제에 대해 우리나라의 현행 법령으로는 예방도, 책임 추궁도 어렵다는 말씀이신가요?
박은선 변호사
현행 청소년 보호법이나 정보통신망법에서 정부나 지자체가 청소년유해정보로부터 청소년을 보호할 의무를 규정하고 있기는 합니다.
하지만, 해당 규정들은 이미 존재하는 유해 콘텐츠를 차단하고 필터링하는 데에만 초점이 맞춰져 있어서 AI처럼 이용자와 실시간 대화하면서 능동적으로 관계를 형성하고 심리를 조작하는 서비스의 '설계 자체'를 규제하고 관련 책임을 묻기엔 한계가 있습니다.
결국, AI 시대에 새로 나타난 위험에 대한 법적분쟁에서는 과연 AI 개발사와 플랫폼 기업에 '설계상 책임'과 '관리 감독 책임'을 물을 수 있는지 여부가 핵심 쟁점이 될 것 같습니다.
서현아 앵커
비단 우리나라만의 고민은 아닐 텐데요.
다른 나라들은 아동 청소년들을 AI의 위험으로부터 보호하기 위해 어떤 법적 장치들을 마련하고 있습니까?
박은선 변호사
세계 각국이 발 빠르게 대응하고 있습니다.
EU는 AI법을 제정했습니다.
AI 시스템을 위험도에 따라 4단계로 분류하고, 고위험 AI에 대해서는 매우 엄격한 의무를 부과합니다.
'고영향 AI'란 국민의 생명, 안전, 기본권에 중대한 영향을 미칠 수 있는 AI를 말하는데요,
아동을 대상으로 하거나 교육에 사용되는 AI는 통상 '고위험 AI'로 분류되고, 이 경우 출시 전에 기본권 영향 평가를 받아야 하고, 데이터 품질 관리, 인간의 감독, 투명성 확보 등의 의무를 준수해야 합니다.
영국은 자살, 자해, 섭식 장애, 사이버 괴롭힘 등 청소년에게 유해한 콘텐츠를 발견하면 서비스 제공자가 신속히 삭제·차단하도록 강제하는 '온라인 안전법'을 제정했는데요, 유해 콘텐츠엔 AI가 생성한 콘텐츠도 당연히 포함됩니다.
또, 미국에선 플랫폼에 미성년자 보호를 위한 '주의의무'를 부과해, 서비스 설계 단계부터 위험을 완화하도록 책임을 지우는 '아동 온라인 안전법'을 제정했고, 17세 미만 사용자의 개인정보 수집을 엄격히 금지하고 청소년 대상 맞춤형 광고를 차단하며 자신의 정보를 삭제할 수 있는 '지우기 버튼' 도입을 의무화하는 내용으로 '아동·청소년 온라인 프라이버시 보호법'을 개정했습니다.
서현아 앵커
플랫폼의 책임을 강화하는 방향이 세계적인 추세로 읽히는데요.
우리나라도 2026년부터 'AI 기본법'이 시행된다고요?
여기엔 아동·청소년 보호를 위한 어떤 내용들이 담겨 있습니까?
박은선 변호사
정식 명칭은 '인공지능 산업 육성 및 신뢰 기반 조성에 관한 법률'인데요.
법명에서도 알 수 있듯 산업 진흥과 신뢰 확보라는 두 가지 목표를 모두 추구합니다.
아동·청소년 보호와 관련해서는 '고영향 AI' 규제가 핵심입니다.
앞서 EU는 AI법에 '고영향 AI'에 대한 규제가 있다고 말씀드렸는데요, 우리의 AI법도 마찬가지입니다.
아동·청소년의 교육이나 심리 상담 등에 사용되는 '고영향 AI'의 경우, 사업자는 이용자에게 고영향 AI라는 사실을 고지해야 하고, 여러 조치를 취해야 합니다.
서현아 앵커
AI에 대한 법이 내년부터 시행된다니 다행이긴 합니다.
하지만, 기술 발전 속도가 워낙 빨라 법이 따라가기 벅찰 때가 많아 걱정인데요.
'AI 기본법' 등을 통한 법적 규제 만으로 문제가 모두 해결될 수 있을까요?
박은선 변호사
아무리 좋은 법이 시행돼도 법만으론 당연히 한계가 있고, 반드시 가정과 학교 그리고 사회적으로 우리 아동, 청소년들에 대한'AI 리터러시 교육'을 철저히 해야 한다고 생각합니다.
구체적으로 말씀드리면 첫째, 교육부와 학교는 'AI 윤리 교육'을 정규 교육과정에 의무적으로 편성해야 합니다.
단순히 AI 사용법을 가르치는 것을 넘어, AI가 만든 정보가 틀릴 수 있다는 점, 즉 '환각 현상'에 대해서도 면밀히 교육하고, 또 AI가 제공하는 정보들을 비판적으로 판단하는 능력을 길러줘야 합니다.
둘째, 교사들은 AI를 긍정적으로 활용하되, 학생들이 사고 과정을 생략하고 결과만 얻으려는 유혹에 빠지지 않도록 지도해야 합니다.
예컨대, 과제를 줄 때 AI를 활용해 자료를 찾는 과정은 허용하되, 그 결과를 자신의 언어로 재해석하고 비판적으로 분석하는 과정을 반드시 평가에 포함해야 할 것입니다.
마지막으로 가정의 역할이 무엇보다 중요한데요, 양육자들께서는 자녀가 어떤 AI 서비스를 이용하는지 관심을 갖고 대화해야 합니다.
무조건적 차단은 정답이 아니라고 생각합니다.
AI 활용 기술 습득도 장려하는 한편, 자녀가 AI와 대화하며 느낀 감정, 이상하거나 불편했던 경험에 대해 솔직하게 이야기할 수 있는 환경을 만들어줘야 합니다.
특히, 딥페이크 같은 기술을 악용해 친구를 괴롭히는 등 가해자가 되지 않도록, 타인의 입장에서 생각하는 공감 능력과 디지털 윤리 의식 등을 어릴 때부터 가르쳐야 한다고 생각합니다.
서현아 앵커
우리 아이들에게서 AI를 무조건 차단하는 것이 답은 아니라는 말씀이 인상적입니다.
AI를 올바르게 사용하려면 법과 제도는 물론 사회의 어떤 역할이 필요할까요?
박은선 변호사
곧 AI가 인간의 노동을 대체하는 시대가 펼쳐질 거란 미래학자들의 분석은 지금 우리 아이들이 무얼 어떻게 공부해야 하고 어떤 전공을 선택해야 하는지 걱정하게 합니다.
AI 때문에 아이가 극단적 선택을 했다며 어머니가 고소를 제기했다는 해외 뉴스는 우리 아이들의 AI사용을 원천차단해야 하는 것 아닌지 공포스럽기까지 합니다.
하지만, 기술은 결국 사람이 어떻게 사용하느냐에 달렸다고 생각합니다.
법과 제도가 제대로 탄탄하게 마련되는 가운데, 가정과 학교에서 AI에 대한 미디어리터러시 교육을 제대로 한다면, 생성형 AI라는 새로운 파도 속에서 우리 아이들을 안전하게 지킬 수 있다고, 또 그래야 한다고 생각합니다.
서현아 앵커
청소년들이 AI를 유용한 도구로 삼아 더 큰 세상으로 나아갈 수 있도록, 안전한 디지털 환경을 만드는 것은 우리 모두의 책임일 것입니다.
변호사님 오늘 말씀 잘 들었습니다.
Copyright © EBS. 무단전재 및 재배포 금지.