[김대은의 컴파일] AI의 근친교배

김대은 기자(dan@mk.co.kr) 2023. 9. 15. 17:39
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능(AI)이 일상에 자리 잡으면서 새로이 생겨날 문제가 있다. AI가 만든 결과물을 AI가 학습하는 일종의 근친교배 현상이다. 최근 영국 옥스퍼드대 연구팀은 인간이 만든 문장을 AI에 학습시켜 문장을 만들고, 이렇게 나온 문장을 계속해서 재학습하는 실험을 진행했다. 그러자 얼마 되지 않아 어순이 이상해지고, 주술 관계도 맞지 않을뿐더러 잘못된 구두점이 포함된 결과가 나왔다. 이는 과거 화제가 되었던 '환각(Hallucination)'과는 또 다른 차원의 일이다. 환각 현상은 잘못된 내용을 제시할지언정, 사람이 알아들을 수 없을 정도로 문법적으로 이상한 문장을 만들 정도는 아니기 때문이다.

문제는 이러한 현상이 점점 심화할 전망이라는 것이다. 챗GPT, DALL-E처럼 누구나 쉽고 간편하게 AI로 콘텐츠를 만들 수 있게 되면서 온·오프라인에 AI발 콘텐츠가 범람하기 시작한 탓이다.

올해 들어 처음 지적되기 시작한 이 현상은 '모델 붕괴' '합스부르크 인공지능' 등 다양한 이름으로 불리고 있다. 합스부르크라는 이름이 붙은 것은 AI의 근친교배가 독일 합스부르크 가문의 근친혼과 본질적으로 같기 때문이다. 17세기 합스부르크 가문은 정치적인 이유로 근친혼을 장려했지만, 이로 인해 태어난 사람들이 각종 유전병에 시달리는가 하면 불임으로 인해 대가 끊길 위기에 처하기도 했다.

AI의 근친교배도 이와 유사한 문제점을 지닌다. 딥러닝이 작동하는 방식을 가장 쉽고 간단하게 이해하는 방법은 경제학도에게 익숙한 '추세선 그리기'와 같다고 생각하는 것이다. 경제학자들이 매일같이 오르락내리락하는 주가 차트를 보고 가장 오차가 작은 직선을 그어 단순화하듯이, AI도 사람이 만들어낸 다양한 글과 그림을 보면서 그중 공통되는 부분을 찾아내 가장 오차가 작은 결과물을 내놓는다.

그런데 AI가 학습할 데이터가 이미 AI가 만든 콘텐츠라면 큰 문제가 발생한다. 한번 오차를 걸러낸 후에 또다시 오차를 걸러내다 보니 소수 의견이 모두 잘려 나가는 것이다. 이러한 과정을 통해 만들어진 결과물은 결국 표준편차가 0에 가까운 데이터를 갖고 추세선을 그리는 것이나 마찬가지다. 옥스퍼드대 연구팀은 이를 '치명적 망각'이라고 명명했다. 어떤 면에서 AI의 근친교배는 인간의 사고와도 닮았다. 간혹 나이 지긋한 원로급 인사가 내뱉는 말과 쓰는 글이 극단적이고 편협한 진영 논리에 사로잡힌 경우를 본다. 점점 내가 보기 불편한 것을 멀리하고, 입맛에 맞는 정보만 수용하는 사고(思考)의 근친교배가 계속되다 보니 생기는 현상이다.

극렬 지지자의 의견에 휘둘리는 정당이 선거에서 패하거나, 사내 의전과 서열에 집착하는 기업에서 나온 제품이 시장에서 외면받는 현상도 결국 사고의 근친교배에서 비롯된 잘못된 의사결정 때문이다. 나와 다른 의견을 가진 이들의 논리 구조를 끊임없이 탐구하고, 듣기 불편한 목소리에 계속해서 귀를 기울여야만 하는 이유다.

옥스퍼드대 연구팀은 모델 붕괴 현상을 예방하기 위해 학습 데이터 출처를 다변화하고, 데이터의 적절성을 인간이 다시 한번 검토하는 과정을 거쳐야 한다고 조언했다. 어느 조직이든 다양한 배경을 가진 사람으로부터 여러 의견을 수용해야만 좋은 결과물을 낼 수 있다는 건 비단 AI에만 적용되는 원칙은 아닌 듯하다.

[김대은 디지털테크부 기자]

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?