KAIST, 'AI 공정성 강화' 새 학습 기법 개발

정찬욱 2023. 10. 30. 11:35
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

최근 인공지능(AI)의 긍정적 효과 이면에 인종 별로 서로 다른 재범 확률을 부여하거나 채용, 대출 시스템 등 중요 영역에서 심각한 편향성을 가질 수 있다는 우려가 있기도 하다.

예를 들어 과거에 특정 인종 위주로 채용하던 기관이 이제는 인종과 관계없이 채용한다 해도 과거 데이터를 기반으로 학습된 인공지능 채용 모델이 현재의 데이터에 불공정한 판단을 내릴 수 있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

전기및전자공학부 황의종 교수팀, 변화하는 데이터에도 편향성 줄여
채용과 인종의 상관관계가 변할 때 훈련 데이터를 개선하는 예시 [KAIST 제공. 재판매 및 DB 금지]

(대전=연합뉴스) 정찬욱 기자 = 최근 인공지능(AI)의 긍정적 효과 이면에 인종 별로 서로 다른 재범 확률을 부여하거나 채용, 대출 시스템 등 중요 영역에서 심각한 편향성을 가질 수 있다는 우려가 있기도 하다.

예를 들어 과거에 특정 인종 위주로 채용하던 기관이 이제는 인종과 관계없이 채용한다 해도 과거 데이터를 기반으로 학습된 인공지능 채용 모델이 현재의 데이터에 불공정한 판단을 내릴 수 있다.

한국과학기술원(KAIST)은 전기및전자공학부 황의종 교수 연구팀이 학습 상황과 달라진 새로운 분포의 데이터에 대해서도 편향되지 않은 판단을 내리도록 돕는 새로운 모델 훈련 기술을 개발했다고 30일 밝혔다.

연구팀은 '상관관계 변화'(correlation shifts) 개념을 이용해 데이터의 편향 패턴이 변화해도 모델을 공정하게 학습하는 새로운 프레임워크를 제안했다.

이를 통해 과거 데이터에서 학습했던 특정 인종 데이터를 상대적으로 줄임으로써 채용과의 상관관계를 낮출 수 있다고 연구팀은 설명했다.

이 기법은 데이터 전처리만 하기 때문에 기존에 제안된 알고리즘 기반 학습 기법을 그대로 활용하면서 개선할 수 있다는 이점이 있다.

이번 연구 논문의 제1 저자인 KAIST 전기및전자공학부 노유지 박사과정 학생은 "인공지능 기술의 실제 적용 환경에서 더욱 신뢰할 수 있고 공정한 판단을 하도록 도울 것으로 기대한다ˮ고 말했다.

연구 논문은 지난 7월 미국 하와이에서 열린 머신러닝 분야 최고 권위 국제학술 대회인 `국제 머신러닝 학회'(ICML)에서 발표됐다.

jchu2000@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?