인공지능, IT 전문가들은 왜 AI가 위험하다고 하나 [티타임즈]

홍재의 기자 2023. 5. 13. 05:50
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

"AI는 발명이 아니라 발견"
"구조 모르는 상태에서 경험적 증명만으로는 한계 있어"

지난 1일, '딥러닝의 아버지 'AI의 대부'라 불리는 제프리 힌턴 박사가 11년간 몸담아 왔던 구글을 떠났다. 인공신경망 구조를 발전시키는데 가장 큰 기여를 한 그는 구글을 떠나면서 지금껏 쌓아온 자신의 업적을 부정했다. 그는 AI는 위험성을 지적하며 "지금껏 연구해 온 것을 후회한다"는 말까지 남겼다.

AI의 급격한 발전에 대해 경계감을 드러내는 건 비단 제프리 힌턴 박사뿐만은 아니다. 최근 백악관은 주요 AI 개발사의 수장인 순다르 피차이 구글 CEO, 사티아 나델라 마이크로소프트 CEO, 샘 올트먼 오픈AI CEO, 다리오 아모데이 앤스로픽 CEO 를 초대해 AI의 위험으로부터 대중을 보호할 것을 촉구했다. 지난 11일에는 AI도구를 규제하는 법안 초안이 유럽의회의 위원회를 통과했다. 이 법안은 다음 달 본회의에서 다뤄질 예정이다.

국내에서도 경계의 목소리는 높아지고 있다. IT전문가 박태웅 한빛미디어 의장은 최근 티타임즈와의 인터뷰를 통해 '통제가능한 AI'의 중요성을 역설했다. '블랙박스'라 불리는 딥러닝 구조의 모호성을 정확하게 밝혀내지 못한 상황에서 AI 관련 서비스가 쏟아져 나오는 것을 막아야 한다는 것이다.

"AI(거대언어모델)는 발명이 아니라 발견이라는 말이 더 정확합니다. 구조적으로 왜 할루시네이션(AI의 허위정보)이 발생하는지 밝혀낼 수 없고, 결국 경험적으로만 검증할 수 있기 때문이에요. 테슬라의 로보택시도 마찬가지입니다. 경험적인 모델에는 한계가 있습니다."

박 의장은 AI가 위험한 것인지 혹은 안전하게 사용할 수 있는 도구에 불과한지에 대해 논의하는 것이 우선되어서는 안 된다고 강조했다. 교육 현장, 예술 산업 등에서 이미 부작용이 드러나고 있는 만큼 관련 '규칙'을 당장 마련하는 게 시급하다는 것이다.

"AI는 지구상의 모든 사람들이 쓰는 물건입니다. 그러면 아이들 기준으로도 안전해야합니다. 부작용이 이미 보이는데 조심스럽게 쓰자는 말은 이 부분을 놓치고 있습니다."

박 의장은 AI가 가져올 일하는 방식의 변화가 제2의 산업혁명과도 같다고 평가했다. 첫 번째 산업혁명이 몸으로 할 수 있는 일을 기계로 자동화해주는 '몸의 혁명'이었다면 2번째 산업혁명은 인간의 정신을 대체하는 혁명이라는 설명이다. 이 때문에 더 엄격한 기준의 접근법이 필요하다고 주장한다.

"사람의 몸에 대해서는 과학적인 실험 방법을 거칩니다. 예를 들어 신약을 내놓을 때 전임상, 1상, 2상, 3상을 거쳐 시판을 하게 됩니다. 시판을 하고 나면 실제 사용 케이스 속에서 부작용을 추적하는 4상이 시작됩니다. 시판이 된 뒤 몇 년이 지나 허가가 취소되는 경우도 있습니다. AI 혁명은 인간의 정신에 대한 실험입니다. 그런데 어떤 규칙이 있는가라는걸 지금 묻고 있는 겁니다."


☞다음은 박태웅 의장과의 인터뷰 중 일부를 일문일답으로 옮겨 놓은 내용

- AI로 촉발된 급격한 변화에 찬성하는 쪽인가 아니면 위험성이 있다고 보나?

지나치다고 생각한다. 오픈AI가 내놓은 챗GPT 같은 경우 그 확산 속도에 있어 인류 역사상 유래가 없는 수준이다. 샘 알트만 조차도 이게 위험하다고 계속 얘기를 한다. 근데 왜 당신은 개발하냐고 물으면 다들 "내가 안 해도 누군가 할 것이다"라고 답한다. 굉장히 비겁한 답변이다. 이 친구들이 AI쪽으로는 정말 뛰어난 재능일지 모르겠지만 윤리적이거나 사회적으로는 그렇게 뛰어나다고 볼 수 없다. 그래서 미처 보지 못했던 함정들이 있거나 모순이 있을 때 되돌릴 수 없게 된다.

- 오픈AI도 최근에는 오픈소스 정책을 버리고 주요 기술을 공개하지 않는다

AI가 작동을 잘하는지 엉터리인지를 알 수 있는 유력한 방법 중에 하나가 학습 데이터를 들여다보는 것이다. 사진을 학습할 때 사용하는 이미지넷이 대표적이다. 이미지넷의 사람 카테고리를 보면 사진 아래 실패자 / 위선자 / 루저 / 허영 주머니 / 낙오자와 같은 라벨이 있었다. 2019년이 돼서야 비로소 사람 범주 2,832개 중에 1,593개, 즉 56%에 해당하는 라벨을 안전하지 않다고 간주해 삭제했다. 챗GPT가 5조 개의 문서를 학습했다고 하는데 그 5조 개의 문서에는 인류가 지금까지 쌓아온 온갖 편견과 선입견과 위선과 모순이 들어가 있다. 그런데 오픈AI는 GPT-4부터 어떤 데이터를 가지고 학습했는지를 전혀 밝히지 않고 있기 때문에 감시가 불가능하다.

- 산업혁명을 촉발시킨 증기기관을 사용할 때도 원리를 알지 못했지만 인류에 도움이 됐다는 이야기도 있는데?

반만 맞는 이야기다. 증기 기관이 왜 작동하는지를 이론적으로 함수를 만들어서 설명할 수 있었던 건 그 뒤가 맞다. 하지만 증기기관이 어떤 기능을 내는지는 우리가 다 알고 있었고 통제할 수 있었다. AI는 오히려 신물질이나 신약에 더 가깝다. 어떤 부작용이 있을지 모르고 실제로 많은 부작용이 이미 보이고 있다.

※'티타임즈TV'에 오시면 더 많은 영상을 보실 수 있습니다


홍재의 기자 hjae@mt.co.kr

Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?