“선택 아닌 필수” AI 윤리 준칙 만든 LG·네이버·카카오

박수현 기자 2023. 1. 2. 14:15
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

LG, 지난해 말 ‘AI 윤리 워킹 그룹’ 구성
“윤리 준칙 바탕으로 가이드라인 제작”
10개 계열사 참여… 올해 공식 운영
네이버는 실제 상용 서비스에도 도입
“발전 속도 감안한 정책 마련 필요해”
오픈AI가 개발한 인공지능(AI) 챗봇, 챗GPT. /오픈AI
# 지난해 11월, 전 세계 정보기술(IT) 업계에 큰 충격을 가져다 준 사건이 있었다. 메타가 개발한 대규모 언어모델 갤럭티카(Galactica)가 출시 3일 만에 폐쇄 수순을 밟은 일이었다. 인공지능(AI)계 ‘4대 천왕’으로 불리는 얀 르쿤 최고과학책임자(CSO)의 관리·감독 아래 4800만개가 넘는 논문과 교과서, 참고자료 등을 딥러닝한 언어모델이 단 며칠 만에 ‘인종차별적이다’는 비판과 함께 사라진 것이다.
# 오픈AI는 최근 자사 AI챗봇 챗GPT가 생성한 작업물에 표식(워터마크)을 삽입하는 방법을 고민하고 있다고 밝혔다. 사람처럼 자연스러운 대화가 가능한 챗GPT가 논문 대필 등 부정 행위에 악용될 수 있다는 우려가 제기되면서다. 오픈AI는 챗GPT가 생성하는 긴 문장 사이에 눈에 띄지 않는 워터마크를 넣으면 이를 통해 해당 문장이 챗GPT가 만든 것이란 걸 확인할 수 있을 것이라고 기대했다.

AI 윤리가 전 세계 정보기술(IT) 업계의 최대 관심사로 떠오르면서 기업들이 선제적 리스크 대응 방안 마련에 나서고 있다. 아이비엠(IBM) 정책연구소는 사업별 윤리책임자를 지정해 AI 기술이 서비스에서 어떤 목적으로 적용되는지 공개하는 가이드라인을 내놨다. 구글은 AI의 윤리적 책임 문제를 연구하는 직원 수를 기존 200명에서 400명까지 늘렸다. 국내에서는 네이버, 카카오, LG가 관련 준칙을 만들었다. 초거대 AI 개발에 집중하고 있는 이들 회사는 AI 윤리 준칙을 기업 문화로 내재화해 개발 단계에서부터 시행착오를 줄이겠다는 목표를 세웠다.

2일 업계에 따르면 LG AI연구원은 지난해 말 LG전자, LG디스플레이, LG이노텍, LG화학, LG에너지솔루션, LG생활건강, LG유플러스, LG헬로비전, LG CNS 등 10개 계열사와 함께 ‘AI 윤리 워킹 그룹’을 구성했다. 이 그룹은 LG가 지난해 ▲인간 존중 ▲공정성 ▲안정성 ▲책임성 ▲투명성 등 5개 조항을 담은 AI 윤리 준칙을 발표하고, 구체적인 실행 전략을 수립하기 위해 신설한 ‘AI 윤리 점검 태스크포스(TF)’와 함께 계열사별 AI 윤리 가이드라인을 만들 예정이다. LG 관계자는 “해당 그룹은 올해부터 공식 운영에 들어간다”며 “공식 회의는 상·하반기 두 차례로 예정돼 있다. 그룹에 속한 계열사들은 현재도 주기적으로 모여 데이터 및 사례를 공유하고 있다”고 밝혔다.

네이버는 지난 2021년 ▲사람을 위한 AI 개발 ▲다양성의 존중 ▲합리적인 설명과 편리성의 조화 ▲안전을 고려한 서비스 설계 ▲프라이버시 보호와 정보 보안 등 5개 조항으로 이뤄진 AI 윤리 준칙을 만들고, ‘지식인터랙티브’ 등 자사 신규 서비스에 적용하고 있다. 지식인터랙티브는 사용자가 일상에서 흔히 쓰는 말로 질문하면 그 의미를 파악해 답변하는 대화형 검색 서비스다. 지난해 7월 출시됐다. 네이버 측은 “지식인터랙티브는 지식백과 등 검증된 문서에서 질문에 맞는 정보를 찾아낸 뒤, 답변이 질문과 연관된 것인지 팩트체크하는 과정을 거친다”며 “또 답변의 근거가 된 문서를 참고자료로 사용자에게 직접 제공하고 있다”고 설명했다.

지난 2018년 국내 기업 최초로 ‘인공지능 알고리즘 윤리 헌장’을 제정한 카카오는 지난해 7월 ‘기술윤리위원회’를 구성했다. 기술윤리위는 카카오 서비스의 AI 윤리규정 준수 여부와 위험성 점검, 알고리즘 투명성 강화 등을 위한 정책 개선 업무를 수행한다. 카카오는 기술윤리위와 함께 국내외 기술 인권 정책 등을 검토해 카카오 기술 윤리 방향성을 제시하는 ‘인권과 기술윤리팀’도 운영 중이며, 향후 이들 조직에서 유의미한 실천안이 도출되면 이를 사회와 공유한다는 방침이다.

지난 2021년 논란이 됐던 국내 인공지능(AI) 챗봇 이루다와 이용자들의 대화 내용 일부. /조선DB

기업들이 이처럼 앞다퉈 AI 윤리 준칙을 세우는 배경에 대해 한 업계 관계자는 “걷잡을 수 없는 속도로 발전하는 AI 기술에 발맞춰 다양한 각도로 윤리 문제를 논의해야 한다는 목소리가 각국에서 커지고 있다”며 “국내에서는 특히 이루다 사태를 계기로 AI 윤리가 IT 기업의 ESG(환경·사회·지배구조) 정책에서 빠질 수 없게 됐다”고 설명했다. 실제로 카카오는 지난 2021년 스캐터랩이 개발한 AI 챗봇 이루다가 개인정보 유출 및 성소수자·특정 인종 등에 대한 혐오 표현으로 논란을 빚은 직후 증오발언 근절을 위한 원칙을 공개했다.

하지만 AI 기술 자체가 극초기 단계에 있는 상황에서 기업 문화에 녹아들지 못한 윤리는 구호에 그칠 수 있다는 우려가 나온다. 이해진 네이버 글로벌투자책임자(GIO)도 지난 2021년 국정감사에서 이와 관련해 “전 세계적으로 커다란 숙제이며 아무도 답을 알지 못하고, 찾아가는 과정 속에 있다”고 말한 바 있다. LG·네이버·카카오 3사 중 AI 윤리 준칙을 구체화하는 데 가장 적극적인 네이버는 현재 메일링 그룹 형태의 사내 커뮤니케이션 채널을 열고, 준칙을 시제 서비스에 도입한 경과를 담은 리포트도 발간 중이다. 이를 통해 임직원이 지속적으로 단계별 실천 방안을 고민한다는 데에 의의를 두고 있다는 설명이다.

학계에서는 정부가 도와야 한다는 의견도 나온다. 문정욱 정보통신정책연구원(KISDI) 지능정보사회정책센터장은 지난달 한국인터넷진흥원(KISA)이 개최한 ‘제6회 AI시큐어리티데이 세미나’에서 “올바른 AI 개발과 활용을 장려할 수 있도록 자율규제로서의 AI 윤리기준·체계·실천 등이 필요하다”며 “진흥과 규제의 이분법적 접근이 아닌 AI 기술 발전 속도를 감안한 균형 잡힌 윤리정책 마련이 필요하다”고 강조했다.

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?