"악해지지 말자"..구글, AI 윤리 연구 인력 두배로

조유진 2021. 5. 12. 07:19
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

구글이 인공지능(AI) 윤리 문제를 연구하는 연구팀을 2배로 확대하기로 했다.

11일(현지시간) 월스트리트저널(WSJ)에 따르면 구글 엔지니어링 담당 부사장인 매리언 크로크는 WSJ 주최 행사에서 "AI 윤리 담당 연구진 규모를 현재의 두배 수준인 400명으로 확대할 것"이라며 "AI로 인한 피해를 줄이기 위해 제품을 평가하는 팀의 운영 예산도 확대하겠다"고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

사진출처:WSJ

[아시아경제 조유진 기자] 구글이 인공지능(AI) 윤리 문제를 연구하는 연구팀을 2배로 확대하기로 했다. 편향과 차별 등 인류에게 각종 해악을 끼칠 가능성을 차단하기 위해 프로그램 검증팀에 대한 예산 지원도 대폭 늘리기로 했다.

11일(현지시간) 월스트리트저널(WSJ)에 따르면 구글 엔지니어링 담당 부사장인 매리언 크로크는 WSJ 주최 행사에서 "AI 윤리 담당 연구진 규모를 현재의 두배 수준인 400명으로 확대할 것"이라며 "AI로 인한 피해를 줄이기 위해 제품을 평가하는 팀의 운영 예산도 확대하겠다"고 밝혔다.

크로크 부사장은 "AI가 윤리적으로 작동하지 않는다면 기술을 개발한 회사에도 사업적으로 문제가 된다"며 이 같이 강조했다.

구글의 이 같은 방침은 최근 각종 정보기술(IT) 분야에서 AI의 윤리 문제가 부각되며 논란이 잇따른 데 따른 것으로 보인다.

앞서 구글은 스마트폰 사용자의 손가락을 통해 심장박동 이상을 감지하는 AI 기술을 개발하는 과정에서 흑인 사용자에 대해서만 유독 오류가 자주 발생한다는 점을 발견해 수정하기도 했다.

아마존과 IBM 등 일부 기술 기업들은 편향, 차별 가능성을 이유로 AI 기술을 이용해 신원을 파악하는 안면인식 사업에서 철수하는 등 AI 분야에서 윤리적 논란은 주요 문제로 부각되고 있다.

AI 윤리 문제는 정부 차원의 관심 분야이기도 하다. 지난 2018년 합동 AI 센터를 설치하고 국방 분야의 AI투자를 늘리고 있는 미 국방부는 AI 기술을 실전에 활용하기 위해 AI 개발과 활용 과정에서 책임감을 가져야 한다는 윤리 규범을 채택한 바 있다.

조유진 기자 tint@asiae.co.kr

Copyright © 아시아경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?