카카오, '공공선 포럼'서 사회 문제 해결 위한 플랫폼 기업 역할 강조

윤정민 기자 2024. 6. 27. 11:30
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

카카오는 지난 26일 성균관대 인권과 개발센터, 아주대 BK21Four 인공지능사업단, 한양대 인공지능대학원사업단 등이 주관한 공공선 융합 포럼에 참석해 디지털 안전을 위한 기술 윤리를 소개했다고 27일 밝혔다.

알고리즘 윤리헌장에는 인류 편익과 행복을 추구하는 카카오 AI 기술 지향점, 의도적 차별성 방지, 윤리에 근거한 학습 데이터와 수집 관리 원칙, 알고리즘 관리의 독립성과 알고리즘에 대한 설명 방침 등의 내용이 담겨있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

하진화 카카오 ESG위원회 리더, 공공선 융합 포럼 참석
"AI 포함한 기술 안전성 높이기 위해 적극 노력할 것"
[서울=뉴시스] 카카오는 지난 26일 성균관대 인권과 개발센터, 아주대 BK21Four 인공지능사업단, 한양대 인공지능대학원사업단 등이 주관한 공공선 융합 포럼에 참석해 디지털 안전을 위한 기술 윤리를 소개했다고 27일 밝혔다. 하진화 카카오 ESG위원회 정책팀 프로젝트 리더가 발표하고 있다. (사진=카카오 제공) *재판매 및 DB 금지


[서울=뉴시스]윤정민 기자 = 카카오는 지난 26일 성균관대 인권과 개발센터, 아주대 BK21Four 인공지능사업단, 한양대 인공지능대학원사업단 등이 주관한 공공선 융합 포럼에 참석해 디지털 안전을 위한 기술 윤리를 소개했다고 27일 밝혔다.

이 포럼은 디지털 전환 시대의 융합 연구 생태계와 혁신 전략 등을 논의하는 행사다. 포럼에 참석한 하진화 카카오 ESG위원회 정책팀 프로젝트 리더는 카카오 알고리즘 윤리헌장, 기술윤리위원회, 증오 발언 근절을 위한 노력 등을 소개했다.

카카오는 2018년 알고리즘 윤리헌장을 발표하며 국내 기업 최초로 알고리즘 윤리 규범을 마련한 바 있다. 알고리즘 윤리헌장에는 인류 편익과 행복을 추구하는 카카오 AI 기술 지향점, 의도적 차별성 방지, 윤리에 근거한 학습 데이터와 수집 관리 원칙, 알고리즘 관리의 독립성과 알고리즘에 대한 설명 방침 등의 내용이 담겨있다.

이러한 윤리 규범과 헌장을 지켜나가기 위한 관련 조직(공동체 기술윤리위원회)도 2022년부터 운영 중이다. 전 계열사 전반에 걸쳐 기술 윤리를 점검하고 이를 사회와 함께 발전시켜 나가는 방안을 지속적으로 연구하고 있다.

기술윤리위원회는 AI 윤리규정 준수 여부와 위험성 점검, 알고리즘의 투명성 강화 등을 위한 체계적 정책 개선 업무를 수행하고 있다. 이용자들에게 더 쉽고 투명하게 소통하기 위해 지난해 6월부터 카카오 기업 홈페이지에 온라인 매거을 발간하고 있다.

이러한 기술윤리 일환으로 증오발언 근절을 위한 원칙도 소개했다. 최근 온라인상에서의 증오 발언이 사회적인 문제로 대두되며 이에 따른 대응책이 필요하다고 강조했다. 카카오는 미디어자문위원회, 국가인권위원회, 한국언론법학회, 시민 전문가와 함께 증오 발언 대응에 대해 논의했으며 이를 기반으로 2021년 관련 정책을 수립하고 서비스와 기술에 적용해 왔다.

하진화 카카오 CA협의체 ESG위원회 정책팀 프로젝트리더는 "2020년부터 혐오표현 대응을 위한 원칙과 정책 마련 노력을 진행해 왔다"며 "AI를 포함한 기술 자체의 안전성을 높이기 위해 적극 노력할 것"이라고 말했다.

[서울=뉴시스] 카카오는 지난 26일 성균관대 인권과 개발센터, 아주대 BK21Four 인공지능사업단, 한양대 인공지능대학원사업단 등이 주관한 공공선 융합 포럼에 참석해 디지털 안전을 위한 기술 윤리를 소개했다고 27일 밝혔다. (사진=카카오 제공) *재판매 및 DB 금지

한편 이날 포럼에 참여한 손경아 아주대 인공지능학과 교수와 구정우 성균관대 사회학과 교수는 거대언어모델(LLM)을 활용한 새 접근법을 제시했다. 한국어 혐오 표현 모델은 사람과 유사하게 문맥적 요소를 고려할 수 있는 장점이 있다고 설명했다.

박건우 숭실대 인공지능융합학부 교수는 딥러닝 기술을 활용한 기사 탐지 방법, 유튜브 섬네일 품질 평가 방법 등을 소개하며 인공지능(AI) 기술이 온라인상의 오정보, 편향성, 혐오 등 사회문제 해결에 중요한 역할을 할 수 있다고 주장했다.

포럼 위원장인 구 교수는 "지난해에 이어 카카오와 포럼을 열어 의제를 공유하고 발전 방향을 함께 찾았다"며 "디지털 공간의 이용자 안전에 대해 학계와 기업이 협력하고 발전 방안을 찾는 자리는 그 자체로 큰 의미를 갖는다"고 전했다.

☞공감언론 뉴시스 alpaca@newsis.com

Copyright © 뉴시스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?