[팩플] ‘AI가 역사 왜곡?’…구글 제미나이 AI 이미지 기능 중단
구글이 자사 생성 AI모델인 제미나이(Gemini)의 이미지 생성 기능을 일시 중단했다. 인물 이미지를 만드는 과정에서 실제 역사와는 거리가 먼 인물 이미지를 생성하는 등 여러 오류가 발견돼서다. 구글 측은 관련 문제를 인정하고 빠르게 개선하겠다고 밝혔다.
무슨 일이야
뉴욕타임스(NYT) 등 외신에 따르면 제미나이는 ‘1943년 독일군’을 그리라는 프롬프트(명령어)에 백인 남성의 이미지 대신 동양인 여성, 흑인 남성 이미지를 만들어냈다. 바이킹족 이미지를 요청했을 때 흑인 이미지가 나타나는 경우도 있었다. 역사적 맥락이 전혀 고려되지 않은 이미지인 것이다. 네티즌들은 구글이 서비스 중단을 밝힌 X 게시글에 댓글로 자신이 경험한 제미나이의 오류 사례를 공유하며 “제미나이가 역사적 맥락을 무시하고 다양성만 지나치게 고려하고 있다”고 비난했다.
잭 크로치크 구글 제미나이 제품 책임자는 “이미지 생성 기능이 모든 상황에 들어맞는 것은 아니고, 특히 역사적 맥락을 고려해야 하는 이미지 생성은 더 복잡하다”고 인정하면서 “앞으로 이 기능을 더욱 발전시켜 다양한 상황에 맞추도록 노력할 것”이라고 말했다.
왜 중요해
오픈AI의 챗GPT 대항마로 야심차게 제미나이를 출시한 구글은 또 한 번 시험대에 올랐다. 구글은 1년 전에도 AI 챗봇 ‘바드’ 출시 후 해당 기능을 시연하다가 바드가 사실과 다른 오답을 내놔 곤욕을 치른 바 있다. 지금은 오답 논란에 소위 ‘지나친 다양성’ 논란까지 얽혀 들어갔다.
구글 측은 “제미나이의 목표는 이상적인 인구통계학적 분류를 지정하는 게 아니라 다양성을 극대화하는 것이다”라면서도 “다양성에 대한 지침이 오히려 과잉 보정을 초래할 수 있다”고 설명했다. 이번 논란이 특정 성향의 네티즌들 사이에서 더 확산되고 있다는 주장도 있다. 미국 IT 매체 더버지는 “네티즌들은 구글이 AI 이미지를 생성할 때 백인 노출을 지나치게 피하고 있다고 지적하는데, 이런 주장은 주로 우익 성향의 계정에서 확산되고 있다"고 전했다.
더 알아야 할 것
다양성과 관련한 논란을 구글이 처음 겪는 것은 아니다. 2015년 구글 포토는 두 흑인의 사진에 고릴라라는 꼬리표를 붙여 문제가 됐다. 당시 구글 포토는 동물 자체를 포함해 고릴라·원숭이 등 유인원 이미지로 분류할 수 있는 포토 앱의 기능을 종료했다. NYT는 당시 논란을 지적하며 “구글이 이용자들이 불쾌하다고 생각할 수 있는 기술의 산출물을 줄이려고 노력하는 팀들을 구성하는데 수년을 보냈다”면서 ”이제 소셜 미디어 사용자들은 이 회사가 인종적 다양성을 보여주기 위해 지나치게 노력하고 있다고 비난한다”고 평가했다.
여성국 기자 yu.sungkuk@joongang.co.kr
Copyright © 중앙일보. 무단전재 및 재배포 금지.
- "막내아들만 유산 18억" 소송…누나 셋 울린 대법의 계산법 | 중앙일보
- 황정음, 이영돈과 재결합 3년 만에 파경…"이혼 소송 진행 중" | 중앙일보
- 임창정 미용실도 먹튀 논란…"100만원 애걸복걸하더니 폐업" | 중앙일보
- "안유진 골반 위 나쁜 손" 팬들 분노 부른 펜디 패션쇼 사진 | 중앙일보
- "교통사고 당한 프로게이머…의사 없어 8시간 방치뒤 수술" | 중앙일보
- 이젠 남자들 '목' 노린다…에디슨도 놀라게 한 일본 발명품 | 중앙일보
- "내 마지막 인터뷰" 며칠 뒤 떠났다…주역 대가 '놀라운 예언' | 중앙일보
- [단독] 동해에 석유구멍 24개...석유공사, 10% 가능성 뚫는다 | 중앙일보
- 여고생에 "알몸 보여줘" 체포된 일본 50대…'너의 이름은' 제작자였다 | 중앙일보
- 빅5 "의사가 없다" 2차병원 "병상이 없다"...응급환자 핑퐁 | 중앙일보