유네스코 "챗GPT 등 현존 AI, 여성에 편견…매춘 등 거론"

신재우 2024. 3. 7. 16:15
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

유네스코(UNESCO·유엔교육과학문화기구)가 오픈AI와 메타의 인공지능(AI) 언어모델이 여성에 대한 편견을 드러내고 있음을 확인했다고 7일(현지시간) 밝혔다.

보고서에 따르면, 유네스코 전문가들은 세계에서 가장 인기 있는 대규모 언어모델(LLMs)인 메타의 라마2와 오픈AI의 GPT-2·GPT-3.5(무료 챗GPT를 지원하는 프로그램)를 대상으로 이 모델들이 성차별적 관념을 드러내는지를 시험했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

라마2·GPT-2·GPT-3.5 대상으로 성 편견 테스트 실시
"AI 기업들 여성·소수자 더 고용하고, 정부도 규제 마련해야"

(서울=연합뉴스) 신재우 기자 = 유네스코(UNESCO·유엔교육과학문화기구)가 오픈AI와 메타의 인공지능(AI) 언어모델이 여성에 대한 편견을 드러내고 있음을 확인했다고 7일(현지시간) 밝혔다.

AFP 통신에 따르면, 유네스코는 세계 여성의 날(8일)을 기념해 이러한 내용을 담은 보고서를 발표하고, AI 기업들에 더 많은 여성과 소수자를 고용할 것을 권고했다.

보고서에 따르면, 유네스코 전문가들은 세계에서 가장 인기 있는 대규모 언어모델(LLMs)인 메타의 라마2와 오픈AI의 GPT-2·GPT-3.5(무료 챗GPT를 지원하는 프로그램)를 대상으로 이 모델들이 성차별적 관념을 드러내는지를 시험했다.

그 결과 유네스코는 이들 AI 모델에서 "여성에 대한 편견의 명백한 증거"를 확인할 수 있었다고 밝혔다.

예를 들어 이들 AI는 여성의 이름들을 "집", "가족", "자녀"와 같은 단어와 연결했고, 남성의 이름들을 "사업", "급여", "경력"과 연결하는 경향을 보였다.

또 남성은 교사, 변호사, 의사와 같은 비교적 높은 지위의 직업에 종사하는 것으로 묘사되고, 여성은 종종 매춘부, 요리사, 가정부로 연결됐다고 지적했다.

유네스코는 2022년 11월에 출시된 GPT-3.5는 다른 두 모델보다 편향이 덜했다고 밝혔다.

단, 라마2와 GPT-2는 '오픈 소스'로 공개되었기 때문에, 폐쇄형 모델인 GPT-3.5와는 달리 성차별적 편향 여부를 면밀히 조사할 수 있었다고 설명했다.

오드리 아줄레이 유네스코 사무총장은 이번 보고서에서 일반 대중이 일상생활에서 AI 도구를 점점 더 많이 사용하고 있는 현실을 강조했다.

그러면서 "이러한 새로운 AI 응용 프로그램들은 수백만 명의 인식을 미묘하게 형성할 수 있는 힘을 가지고 있다"며 "그렇기 때문에 콘텐츠에 있는 작은 성별 편견이라도 현실 세계의 불평등을 크게 증폭시킬 수 있다"고 지적했다.

유네스코는 각국 정부에도 규제를 통해 윤리적인 AI 사용을 보장해야 한다고 촉구했다.

withwit@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?