구글 'AI 윤리' 다룰 인력 두 배 늘린다

박상용 2021. 5. 12. 18:27
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

세계 최대 검색업체인 구글이 인공지능(AI)의 윤리문제를 연구하는 조직의 규모를 현재의 두 배로 키우기로 했다.

구글에서 AI의 윤리적 책임 문제를 담당하는 연구진은 200명인데 이를 400명으로 늘리겠다는 것이다.

구글은 AI 기술이 인종차별과 같은 문제를 일으킬 가능성을 차단하기 위해 프로그램 검증팀에 대한 예산 지원도 대폭 늘리기로 했다.

크로크 부사장은 "AI가 윤리적으로 작동하지 않는다면 기술을 개발한 회사에도 사업적으로 문제가 된다"고 말했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

"윤리 없인 사업적으로 문제"
인종차별 검증·범죄 악용 차단

세계 최대 검색업체인 구글이 인공지능(AI)의 윤리문제를 연구하는 조직의 규모를 현재의 두 배로 키우기로 했다.

월스트리트저널(WSJ)은 매리언 크로크 구글 엔지니어링담당 부사장이 WSJ 주최 행사인 ‘모든 것의 미래’에서 이런 방침을 밝혔다고 11일(현지시간) 보도했다. 구글에서 AI의 윤리적 책임 문제를 담당하는 연구진은 200명인데 이를 400명으로 늘리겠다는 것이다.

구글은 AI 기술이 인종차별과 같은 문제를 일으킬 가능성을 차단하기 위해 프로그램 검증팀에 대한 예산 지원도 대폭 늘리기로 했다.

앞서 구글은 스마트폰 사용자의 손가락을 통해 심장박동 이상을 감지하는 AI 기술을 개발하는 과정에서 흑인 사용자에 대해서만 유독 오류가 자주 발생한다는 점을 발견해 수정하기도 했다. 크로크 부사장은 “AI가 윤리적으로 작동하지 않는다면 기술을 개발한 회사에도 사업적으로 문제가 된다”고 말했다.

최근 글로벌 정보기술(IT)업계에선 AI의 윤리문제가 쟁점으로 떠오르고 있다. 글로벌 컴퓨팅회사 IBM은 인종차별 문제를 이유로 얼굴인식사업에서 손을 뗐다.

얼굴인식은 AI 기술을 활용해 얼굴 생김새로 사람의 신원을 파악하는 것이다. 범죄자를 식별하는 데 쓰일 수 있지만, 이 기술에 인종·성별에 따른 편견이 적용됐다는 지적이 제기됐다. 흑인, 아시아인, 여성 등 백인 남성이 아닌 사람은 신원을 잘못 파악할 가능성이 크다는 것이다.

마이크로소프트는 얼굴인식 기술이 시민사회 감시에 악용될 수 있다는 우려가 커지자 경찰 등 법 집행기관에 기술을 판매하지 않기로 했다.

박상용 기자 yourpencil@hankyung.com

경제지 네이버 구독 첫 400만, 한국경제 받아보세요
한경 고품격 뉴스레터, 원클릭으로 구독하세요
한국경제신문과 WSJ, 모바일한경으로 보세요

ⓒ 한국경제 & hankyung.com, 무단전재 및 재배포 금지

Copyright © 한국경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?