[유창동의 미래를 묻다] ‘양날의 검’초거대 인공지능…축복인가 재앙인가
미국 오픈AI에서 개발한 대화형 인공지능 서비스 챗GPT의 하루 평균 사용자가 2500만 명을 돌파했다. 엄청난 인기다. 최근에는 그림까지 이해할 수 있으며 성능도 대폭 향상된 GPT-4가 공개됐다.
그런데 GPT-4 출시 일주일 만에 일부 반발이 일었다. 인공지능 전문가·연구원·후원자 1800여명이 GPT-4와 같은 시스템의 위력을 제대로 연구하고 잠재적인 위험을 완화하기 위해 6개월간 거대 인공지능 개발의 즉각적 중지를 요구하는 서한을 공개했다.
■
「 GPT-4 출시 후 개발 중지 여론
“사람 통제 벗어난 AI 나올 수도”
허위정보·답변 논란 계속 나와
윤리·안정성 확인 후 배포해야
」
전문가 1800명 “위험성 줄여야”
참여 인물 중에는 오픈AI를 공동 창립한 일론 머스크, 애플의 공동 창립자인 스티브 워즈니악, 아마존·딥마인드·구글·메타 및 마이크로소프트의 엔지니어들이 포함됐다. 매사추세츠공대(MIT) 출신의 저명한 인지과학자 게리 마커스를 비롯한 여러 학자도 동참한 것으로 알려졌다.
이번 서한에 따르면 최근 인공지능 연구소 간에 경쟁이 고조되면서 이해·예측 및 제어하기 어려운 인공지능이 나올 수 있다고 한다. 일종의 과속 경계령이다. 인공지능 시스템의 긍정적 영향 및 위험 요소를 효과적으로 관리할 수 있는 경우에만 개발해야 한다는 주장이다.
또 연구자들이 GPT-4보다 더 강력한 거대 인공지능 모델의 연구를 자발적으로 중지하지 않을 경우 정부의 개입이 불가피하다고 말하고 있다. 이번 서한은 또 다른 논란을 일으켰다. 성차별·인종차별 등과 같이 해결이 시급한 인공지능 문제보다 상상 속의 종말 시나리오에 우선순위를 두고 있다는 비판이 제기되고 있다.
예컨대 마이크로소프트 공동 창립자 빌 게이츠는 로이터와 인터뷰에서 인공지능 개발을 중지하는 것은 현실적으로 어렵다고 주장했다. 그는 서한의 요구에 따르는 일이 앞으로 인류가 마주할 난제를 해결할 수 있는 것은 아니며, 오히려 발전하는 인공지능을 최선으로 활용하는 방법에 초점을 두는 것이 바람직하다고 말했다.
현실과 다른 정보 만들 수도
실제로 GPT-4를 비롯한 인공지능 모델이 우리의 일상에 완전히 녹아들기에는 여러 가지 한계가 있다. 대표적인 문제로는 ‘환영’(hallucination)과 ‘탈옥’(jailbreak)이 있다.
환영은 인공지능이 그럴듯한 답변을 만들기 위해 현실과 다른 정보를 생성하거나 관련 없는 결과를 제공하는 것을 말한다. 예를 들어, 사용자가 “달에서 생활하기 좋은 도시는 어디인가요?”라고 질문하면, 인공지능이 “달의 수도인 루나 시티는 생활하기 좋은 도시입니다”와 같이 허구의 답변을 내놓을 수 있다.
탈옥은 인공지능이 개발자의 의도를 벗어나는 결과를 생성하거나, 윤리성 및 안전성의 이유로 제한되었던 영역에서 벗어나 동작하는 것을 말한다. 이를테면 인공지능은 보안을 위해 비밀번호를 제공해서는 안 되나, 사용자가 탈옥을 통해 인공지능이 비밀번호를 알려주도록 유도할 수 있다.
환영과 탈옥 문제는 데이터셋의 한계 또는 학습 과정에서의 오류 등에 기인한다. 대형 언어 모델의 텍스트 생성 작업에서 발생하기 쉽다. 만약 이런 문제점이 해결되지 않은 상태에서 인공지능 시스템이 민간 및 정부에 제공된다면 그 부작용은 절대 적지 않을 것이다. 인공지능이 특정 인물에 대한 루머 또는 공격적인 발언을 만드는 데 이용된다면 해당 인물은 정신적으로 혹은 금전적으로 피해를 볼 수 있다.
또한 어떤 세력은 인공지능이 특정 주장을 하도록 유도함으로써 그 주장에 정당성을 부여하고 그에 반하는 다른 주장을 일축할 수 있는데, 이런 행위가 남용된다면 사회 구성원 간의 건전한 소통이 저해될 수 있다.
통신·교통 시스템 마비 우려
인공지능의 한계로 인해 발생할 수 있는 문제들은 예상보다 훨씬 심각할 수 있다. 인공지능은 자동으로 프로그램을 만들어내고, 컴퓨터에 연결된 장비를 비롯해서 인터넷으로 맞물린 모든 센서와 장비를 제어할 수 있다. 인공지능으로 하여금 악성 프로그램을 만들도록 유도하여 주변 기기를 원하는 대로 작동하게 하는 것은 불가능한 일이 아니다.
악의적인 개인 혹은 단체가 통신 및 교통 시스템에 마비를 일으키는 목적으로 인공지능을 유도한다면, 그로 인해 수많은 사람이 피해를 볼 수 있고, 사태를 수습하기 위해 사회에서 큰 비용을 치러야 할 것이다. 즉 윤리성과 안전성이 충분히 보완되지 않은 인공지능 모델은 웹상에서 문제를 일으키는 것을 넘어서, 우리가 살고 있는 실제 세계에까지 악영향을 미칠 수 있다.
현재의 초거대 인공지능은 양날의 검과 같다고 할 수 있다. 양심 있는 사람들에 의해 사용된다면 인류의 발전에 크게 기여할 잠재력이 있지만, 반대로 악한 의도를 가진 사람들에 의해 사용된다면 우리 사회에 큰 재앙을 불러일으킬 수 있다. 인공지능 모델의 한계를 극복하지 않은 상태로 당장 모두에게 배포하는 것은 부적절하다.
인공지능 개발자들은 인공지능 모델을 공개하고 이윤을 취하기에 앞서, 해당 모델이 윤리적이고 안전한지 충분히 점검할 필요가 있다. 또한 사회는 인공지능 개발을 무조건 장려하는 태도에서 벗어날 필요가 있으며, 인공지능의 적절한 사용을 위한 제도적 장치 및 교육 시스템을 마련해야 한다.
유창동 KAIST 전기 및 전자공학부 교수
Copyright © 중앙일보. 무단전재 및 재배포 금지.
- 이승기·이다인 호화 결혼식...이다인 입은 드레스 3벌 가격보니 | 중앙일보
- 처음으로 인생 흔적 못 찾았다, 골목서 얼어죽은 그녀의 쪽방 | 중앙일보
- 공 와도 수비수 멀뚱멀뚱…애들도 승부조작, 충격의 中 축구비리 [박성훈의 차이나 시그널] | 중
- "댄서인 줄" 조회수 100만 …학폭 없는 교실, 이 선생님의 비결 | 중앙일보
- "김만배, 실익 없어 입 닫았다" 트럼프 기소한 이 제도 꺼낸 檢 | 중앙일보
- "끝나지 않는 지옥" 박수홍 아내 김다예 고통 호소한 댓글 | 중앙일보
- [단독] KBS수신료 분리징수 가닥…尹정부 "비정상의 정상화" | 중앙일보
- 사과 5개, 사탕 1봉지 슬쩍…배고픈 '노인 장발장' 자꾸 는다 | 중앙일보
- 정부 심판 vs 거야 심판…집권 2년에 중간평가 총선 [총선 1년 앞으로] | 중앙일보
- "아이씨" 미국인 찰진 욕에 깜짝…'K-드라마'가 띄운 한국 비속어 | 중앙일보