[안경애 칼럼] `AI 포비아` 집단면역 키우려면

2023. 6. 4. 18:40
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

안경애 ICT과학부장

"AI(인공지능)가 가져올 실질적인 위험에 대해 솔직하게 얘기해야 한다. 비현실적이고 과장된 선전 문구는 실제 문제에 대한 집중도를 떨어뜨릴 수 있다." 미 스탠퍼드대 앤드루 응 교수가 지난 3일 트위터에 올린 메시지다. 응 교수는 제프리 힌튼, 얀 르쿤, 요수아 벤지오와 함께 인류를 AI 시대로 이끈 '4대 천왕'으로 꼽히는 인물이다.

힌튼이 오늘날 쓰이는 AI의 기본 틀인 '딥러닝'의 개념을 창시했다면 응 교수는 자연어 처리 기술을 진화시켰다. 구글 AI 연구조직인 구글 브레인에서 딥러닝 프로젝트를 이끌었다. 오픈AI의 '챗GPT'와 구글 '바드'는 그 성과 위에서 탄생했다.

응 교수를 발끈하게 만든 것은 지난 주말 국내외를 달군 뉴스다. 미 공군 관계자가 최근 국제행사에서 발표한 AI 드론 시뮬레이션 결과가 2일 국내외 언론에 보도됐다. AI가 통제하는 드론이 적의 공격시설을 찾아내 폭격하는 가상훈련에서, 폭격의 최종 결정권을 쥔 인간 조종자가 방해가 된다고 판단한 AI가 조종자를 살해했다는 것이다. 조종자를 죽이면 안 된다고 가르치자 조종자가 근무하는 통신타워를 파괴하는 방법을 택했다고 했다.

SF영화의 한 장면을 떠올리게 하는 상황이 벌어진 것이다. 그러나 이것은 사실이 아닌 것으로 밝혀졌다. 미 공군 관계자는 발언을 철회하면서 실제 시뮬레이션이 아니라 사람이 머릿속으로 한 가상의 시뮬레이션만 있었다고 했다.

응 교수는 AI 드론 해프닝은 AI의 위험성을 과장하는 선전 사례라고 밝혔다. 그러면서 AI 개발자들은 편견, 공정성, 부정확성, 일자리 이동 같은 실제 위험을 해결하기 위해 노력하고 있다고 밝혔다.

이 이슈가 무마됐다고 안심할 상황은 아니다. 처음 전해진 시뮬레이션 결과에 대해 국내외 AI 전문가 누구도 "불가능한 일"이라고 말하지 못했다. 딥러닝의 근간을 이루는 인공신경망은 뇌의 작동을 모방한 것으로, 지식을 미리 알려주지 않아도 스스로 배워서 작동하도록 설계됐다. 방대한 데이터가 AI의 먹이다. 그 결과 오늘날 AI는 거대한 블랙박스다. AI가 내놓은 답에 대해 전문가들도 왜 그런 결과가 나왔는지 설명하지 못한다. '설명 가능한 AI'는 AI 연구자들이 풀고자 하는 다음 숙제다.

AI 전문가 사이에서도 AI 위험성에 대한 시선이 크게 엇갈린다. 불과 1년 전만 해도 인간을 따라오려면 한참 멀었다고 보였던 AI는 오픈AI의 챗GPT가 등장한 지난 6개월 만에 전혀 다른 수준으로 올라섰다.

사람 뇌의 '시냅스'와 비교되는 AI의 매개변수는 현재 수천억개에서 1조개 내외로, 100조개에 달하는 뇌 속 시냅스보다 한참 적다. 그러나 데이터와 지식을 쌓는 속도는 사람과 비교가 안 된다. GPT-4.0 다음에 올 GPT-5.0이 얼마나 발전할지는 AI 전문가들조차 상상하기 힘들다.

현재 발전속도라면 머지 않아 AI가 스스로 판단력을 가지고 인간보다 AI에 도움이 되는 식으로 행동할 수 있고, 인간과 사회의 허점을 파고들어 흔들 수 있다는 우려가 나온다.AI 4대 천왕 중 힌튼과 벤지오 두 사람은 'AI 규제론자'로 돌아섰다. 샘 알트먼 오픈AI CEO도 적정한 규제를 주장한다.

육성·규제론자를 막론하고 한 목소리로 요구하는 것은 투명하고 예측 가능한 AI 질서다. 당장 정치, 문화, 사회 전반에서 AI발 소음이 커지고 있다. 미국에선 내년 대선을 앞두고 벌써 AI로 조작해서 만든 딥페이크가 극성이다. 트위터, 유튜브 등에서 이런 게시물을 일일이 걸러내 차단하는 것은 사실상 불가능하다. 올해 세계적으로 50만 개의 딥페이크 영상과 음성이 유포될 것이라는 전망도 나온다. 다음 대선은 AI와의 싸움이 될 것이란 전망이 나온다.

AI의 공정성과 부정확성 문제도 큰 숙제다. 같은 질문에도 확률에 따라 그때그때 다른 답을 내는 생성형 AI에 중요한 의사결정을 맡겼을 때 일어날 수 있는 후폭풍도 문제다. AI가 가진 '진짜 문제'들이다.

일부 전문가들은 핵반응은 물리적으로 이미 명쾌하게 밝혀져 어떤 상황에도 예측 가능하지만, AI는 훨씬 복잡하고 파급력을 100% 예측하기 힘들다고 주장한다. 이들은 신약 개발과 핵과 같은 수준으로 조심스럽게 AI를 다뤄야 한다고 지적한다.

1865년 영국에서 시행된 '적기조례'는 잘못된 규제사례로 자주 등장한다. 영국은 자동차가 도심에서 시속 3㎞ 이상으로 못 달리고 전방 50m 앞에 붉은 깃발을 든 세 사람이 차가 오는 것을 알리도록 의무화했다. 이 법 때문에 영국은 독일에 산업 주도권을 내줬다는 지적을 받는다.

아무리 기술이 발달해도 사회적 수용과 합의, 질서가 만들어지지 않으면 무용지물임을 보여준다. 그러나 아직도 자동차와 교통은 면허부터 속도까지 엄격한 법규제의 적용을 받는다.

AI의 파급력은 자동차와는 비교가 안 된다. 기술을 다루는 자격을 엄격하게 관리하고 위험성 있는 기술은 신약과 비견될 정도로 신중하게 검증해야 한다. 기업 스스로 AI를 다루는 기준과 가이드라인을 만들고 투명하게 공개해야 한다. 원하면 언제든 AI를 멈추는 '브레이크'와 위험 상황에 사람을 지키는 '안전벨트'를 만들어야 한다.

AI 포비아와 갈등이 과도하게 증폭되지 않으려면 AI 전문가와 기업들이 사회와 과할 정도로 소통해야 한다. 그들간의 협업도 필수다. 네이버클라우드가 최근 초거대 AI의 사회적 민감 이슈나 편향된 발화를 완화하는 데이터를 국내외 누구나 쓸 수 있게 개방한 것은 의미가 있다.

근거 없는 AI 종말론도 경계해야 한다. 과속도 안 되지만 정해진 미래에서 도망쳐서도 안 된다. naturean@

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?