[과학에세이] 인공지능안전센터에서 인공지능 IAEA로
로봇이 인간을 대체할 날이 얼마나 가까워졌길래 많은 전문가들이 인공지능의 위험성을 경고하는 걸까. 작년 말에 출시된 ‘챗GPT’를 포함하는 생성형 인공지능은 엄청난 인기를 모은 동시에 인공지능의 영향에 대해 격론을 일으켰다.
딥러닝의 아버지로 불리는 제프리 힌턴, 오픈AI 샘 알트먼 대표, 구글 딥마인드 CEO 데미스 허사비스를 포함하는 수십 명의 전문가들이 비영리기구 ‘인공지능안전센터’(Center for AI Safety) 웹사이트에 게시된 성명에 지지를 표했다. 성명에 따르면, “AI로 인한 멸종 위험을 완화하는 것이 전염병이나 핵전쟁과 같은 사회적 규모의 다른 위협처럼 전 세계적 우선순위가 되어야 한다”는 것이다. 특히 알트먼 대표는 미국 의회 청문회에 출석해 AI 기술에 대한 정부 규제와 개입을 요구했다.
전 세계적인 생성형 AI 열풍을 불러온 장본인이 AI 규제 필요성을 강조하는 어색한 상황인 셈인데 그가 우려하는 부분은 악용 가능성이다. 인공지능이 만들어 낸 거짓 정보는 정치·경제 영역에 심각한 혼란을 일으킬 수 있고, 사이버범죄에 활용될 가능성도 많다.
이런 우려가 과장됐다고 말하는 이들도 있다. 빌 게이츠는 인공지능안전센터(CAIS)가 발표한 성명서에 서명한 수십 명의 전문가 중 한 명이지만 지난 7월 개인 블로그 ‘게이츠노트(GatesNotes)’에 적힌 그의 견해는 ‘장기적’ 위험과 ‘즉각적’ 위험을 비교하는 논쟁 구도를 잡고, ‘이미 존재하거나 곧 존재할 위험’에 초점을 맞추고 있다. 게이츠의 블로그에는 공포감을 조성하는 내용이 없다. 사실 실존적 위험은 전혀 찾아볼 수 없다. 반면에 메타 AI의 얀 르쿤, 조엘 피노는 실존적 위험에 대한 논의가 ‘터무니없고’ ‘혼란스럽다’고 생각하며, 시그널(Signal)의 메러디스 휘터커는 힌턴과 다른 사람들이 제기하는 우려는 ‘괴담’이라 생각한다는 견해이다.
다양한 견해 속에 우리는 어떠한 조치를 취해야 하나? 지난 월드코인 밋업 서울행사에 참여했던 알트먼 오픈AI 대표는 “사회가 AGI 시스템을 어떻게 받아들이고, 사람과 머신의 역할을 어떻게 구분할 것인가가 중요한데, 여기에 대한 답은 없다. 다만 사회가 그 답을 찾아야 하고 사회에서 만들어진 시스템이 우리 삶에 통합되면 인류에게 유용하게 작용할 것으로 생각한다”고 말했다.
우리 사회도 답을 찾아야 할 시점이다. 다행히도 각 국가가 답을 찾기 시작한 것 같다. 지난 6월 유럽의회에서 ‘유럽연합 AI법(EU AI Act)’이 통과됐다. 이 법은 현재 전 세계에서 가장 앞선 형태의 AI 규제안이기 때문에 중요한 이정표라 할 수 있다. 왜냐하면 AI 기술 자체는 미국이나 중국이 더 앞서 있지만, 그 기술의 이용을 제한하는 규제는 유럽이 주도하고 있기 때문이다.
어떤 내용이길래 가장 앞선 형태의 규제라고 하는 걸까. 핵심은 이 법안이 AI 시스템을 위험 정도에 근거해 세 가지 카테고리로 분류하고 그에 따른 대응책을 명시하고 있다는 점이다.
첫째, ‘수용 불가능한 위험’ 군에는 공공장소에서 안면인식 AI 기술을 이용해 실시간으로 생체 정보를 수집해 신원을 확인하거나, 정부나 공공기관이 개인의 데이터를 바탕으로 사회 신용점수를 부여해 보험이나 대출 등에 이용하는 것이 포함된다. 이 카테고리에 속하는 AI 기술은 금지 대상이다. 둘째, 고위험군에는 AI 알고리즘을 이용해 구직자의 이력서를 분류하고 고용 여부를 결정짓는 일 등이 포함된다. 과거 백인 남성이 주로 고용되었다는 데이터를 바탕으로 미래의 구직자 중에도 백인 남성을 더 우수하다고 평가하는 건 실제 미국 아마존 채용 시 벌어졌던 일이다. 셋째, 저위험군에 속하는 기술은 규제 대상이 아니다.
한국도 ‘인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안’이 국회에 계류 중이다. 필자는 전 세계적으로 인공지능의 위험성을 통제할 수 있는 국제원자력기구 IAEA와 같은 인공지능 통제 국제기구도 필요한 시점이라고 말하고 싶다.
Copyright © 국제신문. 무단전재 및 재배포 금지.