'제2 이루다 사태 막는다'..LG, AI윤리 5대 원칙 만들었다

김상윤 2022. 8. 24. 10:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

지난 2020년 12월 말 소개된 AI챗봇 '이루다'는 공개와 동시에 폭발적 인기를 끌었으나 성희롱·혐오 발언, 개인정보 유출 등 논란에 20여일 만에 서비스를 잠정 중단했다.

AI 아티스트 '틸다' 등을 만든 LG가 이런 문제를 고려해 선제적으로 AI 윤리원칙을 제정했다.

TF는 AI윤리원칙 교육 및 AI 연구 및 개발 단계에서 발생 가능한 윤리 문제를 사전에 검증하는 역할도 맡는다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

"AI 성별, 나이, 장애 등으로 차별 안해"
혐오 표현 감지..맥락까지 분석해 차단
AI연구원, TF신설해 윤리문제 사전 점검

[이데일리 김상윤 기자] 지난 2020년 12월 말 소개된 AI챗봇 ‘이루다’는 공개와 동시에 폭발적 인기를 끌었으나 성희롱·혐오 발언, 개인정보 유출 등 논란에 20여일 만에 서비스를 잠정 중단했다. 일부 사용자들이 20대 초반 여성으로 설정된 이루다에게 성희롱·혐오 발언을 했고, 이루다도 ‘딥러닝’ 알고리즘으로 이러한 내용을 학습·사용하며 윤리 문제가 도마 위에 올랐다. AI윤리 문제가 수면 위로 떠오른 대표적인 사례다.

AI 아티스트 ‘틸다’ 등을 만든 LG가 이런 문제를 고려해 선제적으로 AI 윤리원칙을 제정했다. ‘LG AI 윤리원칙’은 AI를 개발하고 활용하는 LG 임직원이 지켜야 할 올바른 행동과 가치 판단의 기준이 되는 원칙이다.

LG는 신뢰할 수 있는 AI를 개발하기 위해 필수적인 가치와 ‘고객을 위한 가치창조’와 ‘인간존중의 경영’이라는 경영 이념을 고려해 5대 핵심 가치를 선정했다고 24일 밝혔다.

LG의 인공지능(AI) 아티스트 ‘틸다’
◇“AI 성별, 나이, 장애 등으로 부당한 차별 안 해”

5대 가치에는 AI가 인간의 자율성과 존엄성과 같은 권리를 침해하지 않고, 인류에 긍정적인 가치를 제공할 수 있어야 한다는 ‘인간존중’, AI가 성별·나이·장애 등 인간의 개인 특성에 기초한 부당한 차별을 하지 않고 다양성을 존중하며 공정하게 작동할 수 있도록 하는 ‘공정성’, AI를 활용한 제품과 서비스를 접하는 고객들이 신뢰할 수 있도록 안전과 관련된 부분들은 글로벌 수준의 검증 시스템을 항시 가동한다는 ‘안전성’을 담았다.

또 AI를 개발하고 활용하는 LG 구성원들이 주인 의식을 가지고 역할과 책임을 명확히 해야 한다는 ‘책임성’, AI의 알고리즘과 데이터 활용은 원칙과 기준에 따라 투명하게 관리하며, AI가 내놓은 결과를 고객들이 이해할 수 있도록 끊임없이 소통한다는 ‘투명성’까지 포함했다.

LG는 AI 윤리원칙이 AI 개발에 활용될 수 있도록 LG그룹의 AI 연구 허브인 LG AI연구원에 ‘AI 윤리 점검 TF’를 신설했다. TF는 AI윤리원칙 교육 및 AI 연구 및 개발 단계에서 발생 가능한 윤리 문제를 사전에 검증하는 역할도 맡는다.

또 그룹 내 주요 AI 윤리 이슈들을 논의하는 협의체인 ‘AI 윤리 워킹 그룹’도 연말에 신설할 예정이다. AI 윤리 워킹 그룹’은 LG전자, LG디스플레이, LG이노텍, LG화학, LG에너지솔루션, LG생활건강, LG유플러스, LG헬로비전, LG CNS 등 10개 계열사가 참여한다.

LG AI연구원 이를 바탕으로 2023년까지 LG가 연구하고 있는 AI의 세부 분야별 윤리 가이드라인을 개발해 계열사로 전파한다는 계획이다.

‘혐오 표현 감지’ ‘설명 가능한 AI’ 기술 개발

LG AI연구원은 고객들이 AI챗봇 등을 통해 혐오 및 차별 표현을 경험하지 않도록 ‘혐오 표현 감지’ 기술을 연구 중이다. ‘혐오 표현 감지’는 단어뿐 아니라 문장의 맥락까지 분석해 공격적이거나 편향된 정보를 걸러 내는 기술이다.

또 ‘설명 가능한 AI(Explainable AI, XAI)’도 개발 중이다. 설명 가능한 AI는 AI가 내놓은 결과값이 어떤 부분에 근거해서 도출됐는지, 오류 발생 원인은 무엇인지 인간이 이해할 수 있도록 설명하는 기술이다. 이를테면 생산 공정 자동화를 위한 비전 검사 분야에서 AI가 이미지를 분석한 뒤 단순히 제품의 불량 유무만을 알려 주는 것이 아니라, 어떠한 이유로 불량으로 판단했는지 사람이 이해할 수 있게 명확하게 설명하는 방식이다.

배경훈 LG AI연구원장은 “인간이 AI를 어떻게 바라보고 활용하느냐에 따라 그 가치에 대한 평가는 달라질 것으로 본다”며 “LG는 AI 윤리원칙 수립을 통해 인간과 AI의 공존에 관한 연구를 지속하며 진정한 고객 가치를 창출해 나갈 것”이라고 말했다.

김상윤 (yoon@edaily.co.kr)

Copyright © 이데일리. 무단전재 및 재배포 금지.