[김장현의 테크와 사람] 〈46〉선거결과를 맞히는 AI

2024. 4. 4. 16:01
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

아직은 초기단계이지만 거대언어모델(LLM)이라 불리우는 인공지능(AI)이 여론조사나 마케팅조사를 대신하게 될 수도 있다는 주장이 대두되고 있다.

뉴스기사, 논문, 여론조사 결과, 선거 결과, 소셜미디어 포스트 등 온갖 종류의 데이터를 게걸스럽게 먹어대는(학습하는) AI는 차츰 인간의 집단 의사표현을 예측할 수 있게 될 것이며, 인간보다 훨씬 큰 기억력과 빠른 정보처리 능력을 가지고 있기 때문에 인간 지능을 능가할 수도 있을 것이라는 주장이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

김장현 성균관대 교수

아직은 초기단계이지만 거대언어모델(LLM)이라 불리우는 인공지능(AI)이 여론조사나 마케팅조사를 대신하게 될 수도 있다는 주장이 대두되고 있다. 뉴스기사, 논문, 여론조사 결과, 선거 결과, 소셜미디어 포스트 등 온갖 종류의 데이터를 게걸스럽게 먹어대는(학습하는) AI는 차츰 인간의 집단 의사표현을 예측할 수 있게 될 것이며, 인간보다 훨씬 큰 기억력과 빠른 정보처리 능력을 가지고 있기 때문에 인간 지능을 능가할 수도 있을 것이라는 주장이다.

LLM이 엄청난 양의 데이터를 학습하면서 다양한 지식 뿐만 아니라 인간이 가지고 있는 가치관, 태도는 물론 성차별, 인종차별과 같은 부당한 편견까지 습득하고 있음은 주지의 사실이다. 2021년 한 기업의 챗봇 서비스가 성차별, 인종차별 발언을 쏟아내는 바람에 사회적으로 큰 논란이 된 적이 있다. 소셜미디어나 댓글에 넘쳐나는 정제되지 않은 발언들도 그대로 학습한 AI는 그것을 개발한 개발자조차 예측하기 어려울 정도로 언제, 어떤 발언을 할지 모르는 시한폭탄과 같은 존재가 될 수도 있다. 적절한 데이터 정제와 충분한 사전테스트가 중요한 이유다.

노골적인 저질 발언이 아니더라도 우리가 일상생활에서 생산하는 다양한 텍스트 안에는 우리의 가치관이 녹아있기 마련이다. 익명으로 자신의 의견을 말하는 웹사이트에서 벌어지는 온갖 종류의 논쟁, 일부 소셜미디어상에서 벌어지는 정치적 극단주의와 선전선동, 특정인을 집단 린치하는 증오 발언 등 AI가 학습했다가는 엄청난 파장을 낳을 수 있는 정보가 우리 주변에 얼마나 많은가.

그런데 필자의 연구팀에서 최근 수행한 연구와 다수의 국내외 연구에 따르면, AI에게 성별, 거주지역, 연령 등 인구통계학적 특성을 지닌 가상의 인물에 관한 정보를 줄 경우 그 인물이 어떤 정치적 선택을 할 것인지 상당히 정확하게 예측하는 것으로 나타났다. '실리콘 샘플링' 또는 '실리콘랜덤샘플링'으로 불리우는 이러한 기법은 AI가 학습한 막대한 양의 정보 덕분에 특정 속성을 가진 집단(subset)의 행위를 예측할 수 있는 예기치않은 역량을 갖게된다는 점을 보여준다. 여기서 '예기치않은'이란 표현을 쓴 것은 LLM을 만든 사람조차도 이런 역량을 갖게될 줄 몰랐을 것이기 때문이다.

아직은 이러한 예측력의 기저에 어떤 메커니즘이 있는지 정확히 알 수 없으며, 필자의 연구팀이 다룬 데이터가 미국인들의 인구통계학정보를 바탕으로 한 정치적 선택의 예측이었으므로 한국에도 그대로 들어맞을지는 알 수 없다. 또 과거에 있었던 선거의 결과와 AI의 예측을 비교한 것이므로, 앞으로의 선거에도 AI의 예측력이 그 힘을 발휘할지도 단언하기 어렵다. AI는 엄청난 양의 데이터와 그것의 패턴을 찾아내는 알고리즘이 어우러져 복잡계 시스템을 이루고, 이러한 복잡계 시스템에는 흔히 창발이라 불리우는 예상치 못한 특성이 돌발적으로 나오기도 한다. 선거결과 예측도 그런 창발의 일환일지도 모른다.

연구자로서 AI가 무섭다고 느껴진 적이 한 두 번이 아니다. 하지만 동시에 AI가 얼마나 생산성을 증대시켜줄지 기대가 큰 부분도 있다. 작년에 AI의 위험성을 경고하며 구글을 떠났던 제프리 힌튼 박사가 최근 한 일본 언론과의 인터뷰에서 10년 내에 자율적 판단으로 인간을 죽이는 로봇 병기가 등장할 것이라고 했다. 인간을 죽이는 킬러로봇도 무섭지만, 말 한마디로 인간을 매도하는 사회적 살인을 할 수도 있는 AI도 무섭다. 그 놀라운 힘에 압도당하기 보다는, 어떻게 제어하고 조절할 것인가 고민할 때인 것 같다.

김장현 성균관대 교수

Copyright © 전자신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?