[기자칼럼] “아무도 모른다”

황경상 기자 2023. 6. 6. 03:03
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

“왜 잘되는지 모르겠다.”

하루에도 신기술이 수십 가지씩 쏟아지는 인공지능(AI) 분야이지만 하나의 변하지 않는 사실이 있다면 이것이 아닐까. 이미지 인식에 주로 쓰이는 합성곱 신경망(CNN)의 발전 역사를 봐도 그렇다. 신경망을 몇 개의 층으로 쌓을 것인지, 특징을 추출하는 필터의 크기는 어떻게 할 것인지 등은 컴퓨터가 결정해 주지 않는다. 수년간, 수많은 실험을 거쳐 가장 잘되는 층의 개수와 필터의 크기 등을 찾은 것이다. 사람이 미세조정하는 이런 수치들을 컴퓨터가 반복계산을 통해 만들어내는(학습하는) ‘파라미터’와 구분해 ‘하이퍼 파라미터’라고 한다. 특정 수치의 하이퍼 파라미터에서 왜 성능이 가장 잘 나오는지 그 이유는 모른다. 잘 나오니까 그렇게 쓸 뿐이다.

황경상 데이터저널리즘팀장

챗GPT의 발전 역사를 살펴봐도 마찬가지다. 그 기본이 되는 ‘언어 모델’이란 거칠게 말하면 수많은 텍스트를 넣어서 단어 간의 순서를 학습시킨 뒤 어떤 단어 다음에 나올 단어를 통계적으로 예측하는 모델이라고 할 수 있다. 그중에서도 GPT는 G의 의미가 ‘Generative(생성의)’인 것에서도 알 수 있듯이 텍스트 생성을 목적으로 한 모델이었다. 버트(BERT)처럼 문장 이해를 위한 모델은 따로 있었다.

그런데 모델의 크기를 키우고 데이터를 많이 집어넣었더니 GPT가 문장 이해도 잘하기 시작했다. 요약과 질의응답 등 특정 목적으로 학습시킨 기존의 모델 성능을 뛰어넘기까지 했다. 이 또한 추론은 가능하지만 정확한 이유를 제시할 수 있는 사람은 없다. 이 모든 기술의 기반인 딥러닝 역시 최적의 파라미터를 찾아내는 과정인데, 학습 결과가 가장 최선의 해인지는 아무도 모른다. 수없는 오차 계산 끝에 발견 가능했던 최적의 답일 뿐이다. 현재의 인공지능 기술은 인간 뇌의 구조를 흉내 낸 것이다. 인공지능 성능의 향상과 인간, 인간 사회의 발전도 닮아 있다. 뉴런과 뉴런이 신호를 주고받는 시냅스의 연결 양상은 오랜 기간의 학습과 자극으로 만들어진다. 인간과 인간이 만들어내는 사회 구조도 오랜 세월에 걸쳐 수많은 사람들의 의지와 욕망이 투사된 결과물이다.

사회 문제는 그래서, 복잡하고 풀기 쉽지 않다. 흠잡을 곳 없어 보이는 정책도 때론 잘못된 결과를 낳는다. 인공지능의 하이퍼 파라미터를 조정하듯이 다수의 의견을 수렴해 신중하게 조정하고 실험하는 과정을 거쳐야 하는 이유다. 인공지능 모델처럼 세상만사에도 정답은 없고, 뭐가 가장 좋은 방법인지는 아무도 모른다. 그저 고민하고 추론할 뿐이다.

특정 집단을 악으로 규정하고 대화보다는 엄벌을 내세우는 윤석열 정부의 모습이 위태로워 보이는 것은 그 때문이다. 특정 법만 통과되면, 어떤 기구만 설치하면 만사형통 이라고 믿었던 이들도 생각난다. 자신을 지지하는 집단에만 최적화된, 인공지능으로 따지면 딥러닝 과정의 ‘오버피팅(Overfitting)’을 연상케 한다. 오버피팅된 모델은 주어진 학습 데이터에는 엄청난 성능을 보이지만, 실제 문제를 해결하는 데는 젬병이다. 가장 좋은 성능을 보여줄 하이퍼 파라미터를 찾고, 파라미터를 계산하는 인공지능의 지난한 학습 과정처럼 민주주의도 지루한 과정 속에서 찾아낼 수 있는 최적의 방법을 도출해 내는 제도일 뿐이다. 정답은 있을 수 없다. 답을 찾아가는 사람이 있을 뿐이다.

황경상 데이터저널리즘팀장 yellowpig@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?