인권위 “AI 개발할 때 ‘인권영향평가 도구’ 활용해야”

고나린 기자 2024. 7. 8. 12:05
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

국가인권위원회(인권위)가 지난 5월 과학기술정보통신부장관에게 인공지능 개발과 활용으로 인한 인권침해가 발생하지 않도록, 관련 정책 및 사업계획을 만들거나 시행할 때 '인공지능 인권영향평가 도구'를 활용해야 한다는 의견을 표명했다고 8일 밝혔다.

인권위는 "인공지능 기술의 발전과 확산이 사회에 미칠 긍정적인 변화에 대한 기대가 높아지는 반면 인공지능으로 인한 인권침해와 차별 등 부정적인 영향에 대한 우려도 커지고 있다"면서 "(현재) 부처별로 윤리기준 자율점검표 등을 제시하고 있으나, 점검항목을 단순 나열하는 데 그치거나 객관성을 담보할 장치가 없는 등 인권침해 위험성을 효과적으로 통제하기 위한 기준을 제공한다고 보기 어렵다"고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

게티이미지뱅크

국가인권위원회(인권위)가 지난 5월 과학기술정보통신부장관에게 인공지능 개발과 활용으로 인한 인권침해가 발생하지 않도록, 관련 정책 및 사업계획을 만들거나 시행할 때 ‘인공지능 인권영향평가 도구’를 활용해야 한다는 의견을 표명했다고 8일 밝혔다.

인권위는 “인공지능 기술의 발전과 확산이 사회에 미칠 긍정적인 변화에 대한 기대가 높아지는 반면 인공지능으로 인한 인권침해와 차별 등 부정적인 영향에 대한 우려도 커지고 있다”면서 “(현재) 부처별로 윤리기준 자율점검표 등을 제시하고 있으나, 점검항목을 단순 나열하는 데 그치거나 객관성을 담보할 장치가 없는 등 인권침해 위험성을 효과적으로 통제하기 위한 기준을 제공한다고 보기 어렵다”고 밝혔다.

인권위는 그간 지속적으로 인공지능 활용이 차별 강화나, 개인정보 침해 등 인권 전반에 미치는 영향에 주의를 기울여야 한다는 뜻을 전해왔다. 인공지능이 학습하는 데이터에 사회적으로 누적된 편견이나 차별적 요소가 포함될 수 있고, 데이터 확보 과정에서도 개인정보가 무분별하게 사용될 우려가 있는 탓이다.

인권위는 이날 의견표명과 함께 인공지능 인권영향평가 도구를 제시했다. 4단계 72개 문항으로 구성된 평가 도구에는 ‘인공지능 시스템 활용 과정에서 영향을 줄 수 있는 여러 사회적 요인에 대한 자료를 확보하고 있는지’, ‘해당 시스템이 인권에 미칠 영향에 대해 이해관계자(취약계층 등)의 의견을 수렴하거나 협의하고 이를 문서로 기록했는지’ 등의 질문이 담겨 있다.

인권위는 “유엔과 세계 각국은 공공부문 인공지능과 민간부문 고위험 인공지능이 사람들에게 미치는 부정적 영향에 주목하고, 이를 사전에 예방·관리하기 위한 방안으로 다양한 영향평가를 제안하고 도입하는 추세에 있다”면서 “인권영향평가가 법제화되기 전까지 공공기관·민간 부문의 인공지능에 대해 인권영향평가가 수행될 수 있도록 해당 평가 도구를 보급할 필요가 있다”고 밝혔다.

고나린 기자 me@hani.co.kr

Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?