[디지털 세상 읽기] AI에 ‘독약’ 넣기

2023. 10. 31. 00:17
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

박상현 오터레터 발행인

요즘 인기 절정의 생성형 AI는 인간의 창작물에 버금가는 수준의 글과 이미지를 몇초 만에 만들어낸다. 하지만 그 자체에 창의적인 사고가 존재하는 게 아니라 엄청난 양의 글과 이미지를 학습한 결과로 만들어내는 것뿐이다. 문제는 이런 AI 모델이 학습하는 것이 사람이, 경우에 따라서는 평생을 바쳐 만들어낸 작품이라는 사실이다.

생성형 AI로 돈을 버는 기업들은 AI를 학습시키는 데 사용한 창작물에 대가를 치르지 않는다. 이런 관행에 반발한 창작자들이 기업을 상대로 한 소송이 늘어나고 있지만, 학습에 들어간 창작물에 대한 대가를 산출하는 일은 쉽지 않다. 가장 좋은 방법은 기업이 창작물을 AI의 학습에 사용하기 전에 허락을 받는 것이지만, 온라인에서 창작자 몰래 이미지를 가져가 사용하는 걸 막는 게 쉽지 않기 때문에 기업들은 이런 허점을 이용하고 있다.

그런데 최근 시카고대 연구진이 AI의 학습을 방해하는 ‘독약’을 만들어내서 화제다. 사람 눈에는 보이지 않게 고안된 픽셀을 창작물에 포함하면 AI가 학습과정에서 혼란을 겪고, 빌딩을 그려 달라면 꽃을 그리는 식으로 엉뚱한 결과물을 내놓게 된다. 연구진은 이 도구가 창작자들의 권리를 보호해줄 수 있을 것으로 기대한다. 그렇게 ‘오염된’ AI는 사용할 수 없기 때문에 버전 업그레이드가 힘들어지고, 결국 기업들은 창작자에게 대가를 지불하는 방법을 찾게 될 것이기 때문이다.

하지만 일이 순조롭게 진행될 것으로 낙관하기는 힘들다. 기업들은 이 기술을 우회하는 방법을 찾아낼 게 분명하고, 무엇보다 이렇게 AI를 오염하는 방법이 좋은 의도로만 사용되지 않을 것이기 때문이다. 소셜미디어의 발전 과정에서 목격한 것처럼 다양한 이해 당사자들의 끊임없는 기술 싸움이 될 가능성이 높다.

박상현 오터레터 발행인

Copyright © 중앙일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?