“AI 기술, 인간은 뒷전…빅테크 의도대로 굴러가”

한귀영 기자 2024. 6. 24. 09:05
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

사람과디지털포럼 연사 토론 지상중계
테드 창, 챗지피티는 사기에 가까워
‘스테로이드 복용하는 자동완성기능’
마커스, AI 평가하는 기준은
‘사람을 속일 수 있느냐’ 이어야
최예진, AI 중대 오류 드러나도
과학자들 “문제 해결 낙관” 방치
비르하네, 빅테크 ‘담배회사 경로’ 답습
대중의 지지 크다는 자발성이 달라
제3회 한겨레 사람과디지털포럼(사람 넘보는 AI, 인간 가치도 담아낼 수 있을까?)이 열린 12일 오후 서울 중구 대한상공회의소 국제회의장에서 `모두를 위한 AI의 과제\'를 주제로 한 라운드테이블에서 테드 창 SF 작가가 발언하고 있다. 김영원 기자 forever@hani.co.kr

인공지능(AI) 기술의 본질은 무엇일까? 인공지능이 인간의 직업을 대체할까? 인공지능의 품질은 어떤 기준으로 평가해야 할까? 지난 12일 ‘사람 넘보는 AI, 인간가치도 담아낼 수 있을까?’를 주제로 열린 ‘제3회 사람과 디지털 포럼’의 원탁토론에서 나온 질문들이다. 전치형 카이스트 교수가 이끈 토론에서 기조연사로 참여한 테드 창, 최예진, 게리 마커스, 아베바 비르하네 등 세계적 석학 4명은 인공지능에 대한 핵심 이슈들을 놓고 90분 동안 열띤 토론을 벌였다. 컴퓨터 공학자, 인지과학자, 과학소설 작가 등 각자의 위치에 따라 미묘한 시각차도 드러났지만, 인공지능에 대한 혼돈과 불안을 해소하는 데 도움될 통찰도 나왔다.

전치형 인공지능은 무엇이라고 생각하시나요? 대규모 언어모델을 기반으로 하는 챗봇은 질문을 이해하고 답변한 것이 아니라 통계적으로 가장 가능성이 큰 답을 제시한다는 점에서 ‘확률적 앵무새’로 봐야 한다는 주장도 있는데요?

테드 창 2023년 제가 ‘챗지피티(GPT)는 웹의 흐릿한 복제본이다’라는 칼럼을 쓴 적이 있어요. 챗지피티는 기본적으로 정보를 축약하고 압축한 버전이라는 것입니다. 인터넷은 실제 세상과 달리, 웹페이지가 가득 모여 있는 곳에 불과합니다. 챗지피티는 웹에서 수많은 정보를 가지고 와서 압축해 표출합니다. 문제는 이 과정에서 환각·오해·잘못된 거짓 정보의 표출 등 오류가 발생할 수 있다는 것입니다.

챗지피티는 문법적으로 정확한 문장을 구사하기 때문에 예리해 보이기도 합니다. 하지만 흐릿한 정보이기 때문에 부정확하며 여러분을 속일 수도 있습니다. 비유하자면, 챗지피티는 ‘스테로이드를 복용하는 자동완성기능’에 가깝습니다. 어떤 경우에는 자동완성 기능을 통해 좋은 제안을 보여줄 수 있지만 어떤 경우에는 엉터리 결과물을 내놓기도 합니다.

최예진 창의성이 매우 높은 사람의 입장에서는 챗지피티의 답변이 별로 놀랍지 않을 것입니다. 하지만 질문에 따라, 때로는 매우 창의적이고 놀랄만한 결과가 나오기도 합니다. 이 점이 우려되는 부분입니다. 사람들이 인공지능 기술에 대해 기대를 걸기 때문입니다. 하지만 ‘창의적 답변’이 어떻게 생성되었는지는 아직 누구도 모릅니다.

전치형 우리 사회는 인공지능 기술의 품질을 어떤 기준으로 평가해야 할까요? 자동차의 품질 평가와는 어떻게 다를까요?

테드 창 미국 디트로이트에 제너럴모터스(GM)라는 거대 자동차 회사가 있습니다. 이 회사가 미국 전역에 있는 대중교통 시스템을 사들인 후 폐쇄해버렸어요. 소비자들이 자동차를 더 많이 구매하고 이용하도록 하기 위해서죠. 사람들이 자가용을 사게 된 원인은 이처럼 기업의 의도와 관계가 깊습니다.

빅테크 기업도 비슷합니다. 인공지능 기술 개발이 소비자의 선호와 평가를 따라 이루어진 것이 아니라, 기업이 원하는 방향과 의도에 맞춰 진행되고 있습니다. 제가 시민의 한 사람으로서 인공지능 평가 기준에 대한 의견을 말하고, 또 여러 사람들을 설득시켰다 해도 큰 변화를 일으킬 수 없을 것입니다.

비르하네 빅테크 기업은 생성형 인공지능을 개발하고 시장에 출시한 뒤, 정상적인 규범이 될 때까지 계속 시민들을 압박합니다. 이 기술은 시민들에게 그냥 주어진 기술입니다. 먼저 주어진 후에 목적과 타깃집단을 찾습니다.

마커스 저는 ‘인공지능이 사람을 속일 수 있느냐’를 기준으로 평가해야 한다고 생각합니다. 어떠한 데이터를 가지고 학습했는지도 중요한데, 이것을 모른다면 인공지능을 제대로 평가할 수 없기 때문입니다. 그래서 기업은 인공지능 개발에 사용된 데이터를 투명하게 공개해야 합니다.

우리는 인공지능이 많은 측면에서 인간보다 낫기를 기대하지만, 지금은 인간이 기계가 못하는 것을 더 잘하고 있어요. 인공지능의 문제는 신뢰할 수 없다는 것이고, 그 신뢰성 측면에서의 기준을 수립하는 것이 지금 잘 이루어지지 않고 있습니다.

제3회 사람과디지털포럼이 12일 서울 중구 대한상공회의소 국제회의장에서 <한겨레>주최로 열려 기조세션3 \'빅테크 주도 AI개발은 어떻게 편견과 불평등을 재생산하나\'를 주제로 아베바 비르하네 아일랜드 트리니티 카리지 교수와 천현득 서울대 교수가 대담울 하는 모습을 청중들이 바라보고 있다. 신소영 기자 viator@hani.co.kr

최예진 향후 몇 년 동안 인공지능 평가는 더 어려워질 것입니다. 첫 번째 이유는 과학계내의 편향성인데, 챗지피티의 실수와 오류에 대해 아무리 많은 문제 제기가 있어도 과학자들은 다음 단계나 버전에서는 그 문제들이 다 해결될 것이라고 낙관하며 오류들을 해결하려고 하지 않습니다. 두 번째는 자동차와 달리 인공지능이 만들어낸 결과물은 저희가 제어할 수 없기 때문입니다. 인공지능은 어려운 과제에서는 뛰어난 성능을 보이다가도 아주 사소한 것에서 실수하기 때문에 평가하기가 어렵습니다. 앞으로 모델이 발전할수록 더 놀라운 결과물이 나올 것이고, 평가는 더 어려워질 것입니다. 그래서 모델이 세상에 나오기 전에 사전 검증하는데 많은 투자가 이루어져야 합니다.

전치형 인공지능이 학습한 데이터가 편향돼 있어서 잘못된 결과를 도출한다는 지적이 있는데요.

비르하네 복잡한 인간 사회를 인공지능 도구를 활용해 모델화할 때 소수집단에 대한 왜곡 등 편향성이 문제가 됩니다. 데이터에 대한 더 많은 검증·감사가 필요하며, 무엇보다 잘못된 사회의 구조를 바꾸기 위해서 노력해야 합니다.

최예진 데이터에 투영된 인간 사회는 매우 복잡하고, 어떤 편향은 매우 미묘하고 모호하며, 우리가 모두 똑같은 이해 수준을 지니고 있지도 않습니다. 이 문제를 완벽하게 고칠 수는 없지만, 인공지능 학습에 사용된 데이터가 좀 더 형평성과 공정성을 갖출 수 있도록 노력해야 합니다.

전치형 현재 인공지능 개발을 주도하고 있는 빅테크 기업들을 어떻게 봐야 할까요?

비르하네 빅테크 기업은 담배회사·자동사 회사와 다를 게 없습니다. 로비 등 담배회사들이 유리한 정책을 끌어내기 위해 사용하는 방법을 빅테크 기업이 따라 하고 있습니다. 하지만 대중의 지지를 업고 있다는 점이 결정적으로 다릅니다. 대중은 인공지능을 사회의 발전·진보라고 여기며 어려운 사회 문제를 해결해줄 것으로 기대합니다. 다른 분야 거대 기업보다 빅테크가 훨씬 위험한 이유입니다.

마커스 빅테크 기업들은 아직 수익을 내지 못하기 때문에, 다양한 문제 해결에 인공지능의 역할이 중요하다는 식으로 과대광고를 합니다. 사람들이 빅테크 기업들에 큰 힘을 실어주는 이유는 이런 환상 때문이 아닐까요?

테드 창 과거에 미국 정부는 기업의 독과점 해결을 위해 많은 노력을 했습니다. 기업이나 개인이 부담해야 하는 세금도 지금보다 훨씬 높았습니다. 하지만 1980년대 이후, 독과점에 대한 정부의 태도가 달라졌습니다. 빅테크 기업들이 규제를 덜 받는 데에는 이러한 환경변화가 있습니다. 근래 들어 정부가 빅테크 기업들을 규제하기 시작했고, 이것이 지속되기를 기대합니다.

전치형 인공지능을 유익하게 활용할 수 있는 방안은 무엇일까요?

마커스 생성형 인공지능은 거짓 정보를 만들어내고 사기성도 있지만, 과학적인 발견, 재료 공학 등과 관련해 아이디어를 도출할 때 유익하고 일을 신속히 처리하는 데 도움이 됩니다.

비르하네 인공지능은 물리 시스템이나 모델을 만드는 데 도움이 될 수 있습니다. 하지만 채용·처벌·복지수급자 결정 등 인간 사회의 영역에 활용되면 정확도가 떨어집니다. 역사적·사회적·문화적으로 복잡한 인간 사회의 문제들을 인공지능이 다 고려할 수 없기 때문입니다.

최예진 인공지능 기반 변호사를 통해 저렴한 비용으로 변호사 도움을 받을 수도 있고, 아프리카와 같이 병원이 너무 멀 경우, 휴대폰 앱을 통해 의료 서비스 접근성을 높일 수도 있습니다.

한귀영 사람과디지털연구소 연구위원 hgy4215@hani.co.kr

Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?