“감시 데이터로 학습”…‘생성형 AI’ 커지는 우려
“빅테크, 무료 내세워 이용자 실험
사회적 책임 무시하고 배만 불려”
“생성형 인공지능(AI)은 전 세계인의 검색 결과가 녹아든 ‘감시’ 데이터를 학습했고, 규제가 없는 틈을 타 세계의 이용자들을 실험대상으로 삼았다.”
AI의 사회적 의미를 연구하는 미국 뉴욕대 ‘AI나우 인스티튜트’ 공동 창립자 메러디스 휘태커(사진)는 6일 아사히신문과의 인터뷰에서 생성형 AI가 기업의 이익창출을 위한 것일 뿐, 사회적으로 무책임하다고 지적했다. 구글, 메타, 마이크로소프트(MS) 등 빅테크 기업들이 이용자들의 데이터를 수집해 초거대 AI를 탄생시켰고, ‘무료’ 서비스 간판을 내걸었지만 사실은 이용자들을 대상으로 실험을 하며 기술을 발전시키고 있다는 것이다.
챗GPT와 같은 생성형 AI를 둘러싸고 전문가들의 우려는 이어지고 있다. 컴퓨터 심리학자인 마이클 코신스키 스탠포드대 교수는 최근 챗GPT에 자신의 컴퓨터를 제어할 코드를 만들라고 제안하자 순식간에 코드를 만들어 컴퓨터를 먹통 직전까지 만들었다는 사연을 트위터에 공개하기도 했다. 그는 “컴퓨터 시스템을 장악할 수 있는 코드를 몇 초 만에 만들 수 있는 AI가 사람들의 컴퓨터를 장악하면, 어떻게 억제할 수 있는가”라고 우려했다.
교육계에서는 AI가 학생들의 학습능력을 저해할 것이라 우려하고 있고, 노동현장에서는 화이트칼라(사무직)도 AI에 일자리를 빼앗길 것이라는 염려가 퍼지고 있다. 온라인 피싱·사기 기술의 고도화도 생성형 AI의 폐해로 꼽힌다.
아사히와의 인터뷰에서 휘태커는 생성형 AI가 인류를 위한 기술이 아니라, 결국 빅테크만 배 불릴 수단이 될 수 있다고 우려했다. 21세기 들어 미 정보기술(IT) 기업들은 사실상 독과점 형태로 시장을 장악했고 이를 바탕으로 이용자들의 방대한 데이터를 수집하는, 이른바 ‘감시 데이터’로 돈벌이를 했다. 이 데이터를 활용해 광고 수익을 창출하고, AI를 학습시켜 생성형 AI를 내놓았다는 것이다.
휘태커는 “빅테크들은 관련 규제가 없는 틈을 타 전 세계인들을 대상으로 AI 실험을 진행하고 있다”며 “단지 영리 목적을 위해 움직이는 빅테크들의 AI는 중립적이지도 않다”고 지적했다. 현재 IT기업들은 정보보호를 핑계 삼아 리소스 공개, 외부 감시 등 사회적 안전장치를 거부하고 있다고 덧붙였다.
2006년부터 13년간 구글에서 일하며 ‘오픈리서치’를 만들기도 한 휘태커는 구글이 윤리적·도덕적 책임은 안중에 없고 오로지 ‘이윤’에 관심이 있다고 지적했다. 그는 “2017년 말 구글이 미군과 비밀 AI 프로젝트를 진행하고 있다는 사실을 알게 돼 공개적으로 비판한 적도 있다”며 전쟁이나 테러에 관련 기술이 사용될 가능성도 배제할 수 없다고 지적했다.
결국 관련 규제를 시급히 마련해야 하지만 이 또한 쉽지 않을 것이라고 휘태커는 내다봤다. 그는 “이미 거대 IT기업들은 큰 힘을 가지고 있고, 정부 기관과 사회 인프라의 대부분이 이들 기업에 의존하고 있다”며 지난 20년간 IT 관련 규제는 거의 작동하지 않았다”고 지적했다.
이윤정 기자 yyj@kyunghyang.com
Copyright © 경향신문. 무단전재 및 재배포 금지.