[겨를]정확도에 민감해질 때

기자 2024. 7. 17. 20:47
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

출근하던 아침, 스마트워치의 진동이 울렸다. “깨끗이 씻었어요”라는 메시지가 떴다. 팬데믹 시기에 추가된 기능인데, 20여초 손을 씻으면 이런 메시지가 뜨곤 한다. 그런데 서울 성수동 한복판에서 이런 메시지라니. 분명 매미 울음과 손의 흔들림을 ‘씻는 행위’로 판단한 기계의 실수임이 틀림없었다.

이런 기계적 혼동쯤은 웃으며 넘어갈 수 있다. 도리어 ‘여름철 곤충 소리가 물소리로도 들릴 수 있겠구나’라는 인식의 전환을 경험할 수도 있다. 우리는 이런 기계의 오류를 활용해 소박하게 우리의 이득을 챙겨온 적도 있다. 휴대전화를 마구 흔들어 ‘1만보’를 걸은 것처럼 가장하기도 했고, 마우스를 툭툭 쳐서 잠들기 직전의 원격 근무 툴을 깨우기도 했으며, 이상한 광고를 눌러 보더라도 황급히 다른 콘텐츠들을 꾹꾹 눌러 ‘검색 세탁’을 하기도 했다.

생성형 인공지능(AI)이 막 세상의 빛을 봤을 때, 많은 사람들이 ‘세종대왕 맥북 던짐 사건’을 탐색했던 것도 정확도의 틈을 노려 기계를 놀려먹으려는 시도였다. 사용자들은 거짓말을 한 번 시작한 친구를 끝까지 놀리기라도 하듯, 집요하게 이야기를 꾸며내게 했다. 조선시대에 맥북 같은 컴퓨터가 있을 리 만무하지만, 그것이 마치 있었던 일인 양 말을 풀어가게 유도했다. 대표적인 할루시네이션(진술 꾸며내기) 사례인데, 사실관계의 정확도가 중요한 챗봇 기반 서비스 제공업자들에겐 꼭 풀어야 할 문제이기도 했다.

사용자들의 놀림과 비판을 피드백으로 빨아들인 AI 서비스들은, 그 덕에 더 빠르게 정확도를 올려가고 있다. 이때 시도는 단지 서비스 업체들에만 도움된 게 아니었다. 할루시네이션이 만들어내는 것은 사실관계의 거짓뿐 아니라 세상 어느 한 단면이 지닌 혐오와 고정관념, 도덕적 오류 같은 것들도 있었다. 인간 사회 안에서 비가시적으로 머물러 있던 어두운 메시지를 AI는 기계적으로 확대 재생산할 수 있었다. 사회 안정을 위해서라도, 그 공동체가 추구하는 가치를 기계에 최대한 높은 일치율로 학습시키려는 시도도 이어지고 있다.

지금까지 AI 기술 도입이란 주제를 두고 가장 중요하게 꼽아온 지표는 산업계의 투자 대비 수익(ROI)이었다. AI가 내놓는 결과가 인건비를 얼마나 줄일 수 있고, 리스크를 얼마나 낮추며, 공정상 오류를 얼마나 더 잘 잡아낼 수 있는지, 그로써 얼마나 효용을 높이고 수익을 개선할 수 있는지가 중요했다. 그래서 기술 개발자들은 사람보다 더 정확히 문제를 해결해 적어도 몇 사람 분의 역할을 대신할 수 있는 프로덕트를 만들기 위해 노력해왔다. 향상된 성능만큼 즉각적으로 수익이 나니, 기술은 더 가파르게 산업계 수요에 맞춰 발전됐다.

시선을 좀더 돌려 사회적 기술 도입 관점에서 볼 필요가 있지 않을까. 제조업에서 요구하는 정확도는 사람이 내는 정확도를 비교군으로 삼는다. 하지만 가치판단이란 게, 콕 집어 정확하고 말고를 따질 수 있는 군이 있겠나. 더구나 개인 사용자들은 각기 다른 감도로 사실관계를 본다. 그렇다고 개인 맞춤형으로 ‘그에게만 높은 정확도’의 답을 내놓는 것은, 이미 익히 경험한 필터버블만 강화시킬 뿐이다. 모두에게 높은 만족도를 주면서, 보이지 않게 포용적 결과물을 내놓을 수 있는 알고리즘이란 것은 가당키나 한 걸까. 이런 관점에서 요새는 알고리즘의 정확도에 대해 민감하게 탐색하고 있다.

유재연 옐로우독 파트너

유재연 옐로우독 파트너

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?