[홍성욱의 과학 오디세이] [68] AI 안전연구소

홍성욱 서울대 과학학과 교수 2024. 11. 11. 23:54
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

한국전자통신연구원(ETRI) 소속의 ‘AI 안전연구소’가 소장 인선을 마치고 곧 개소할 예정이다. 작년에 영국에서 열린 ‘AI 안전 서밋’을 계기로 미국, 영국, 일본, 캐나다 등의 선진국들이 AI 안전연구소를 출범시켰고, 우리도 여기 발을 맞추어 1년 만에 조직을 구성했다. 이 연구소는 AI를 안전하게 사용할 수 있도록 기술 프레임을 만들고 인프라를 구축하고, 정책을 지원하는 역할을 할 예정이다.

인공지능은 인간 세계의 데이터를 가져다가 훈련받기 때문에, 인간 사회의 편견을 그대로 학습하곤 한다. 면접 인공지능이 여성을 차별한다든가, 가석방 심사용 인공지능이 (미국에서) 흑인을 차별하며, 공항에서 사용하는 출입국 심사 인공지능이 특정 민족을 차별하는 사례 등이 대표적이다. 여기에 딥페이크나 가짜 뉴스 같은 거짓 정보를 만드는 것도 쉬워져서, 이런 오용 사례도 늘어나고 있다. 게다가 조만간 도래할 수도 있는 ‘범용 인공지능’(AGI)은 인간보다 더 똑똑한 존재가 되어 인간의 통제를 벗어나고, 인류 전체에게 큰 위협을 가할 수도 있다. 요즘 인공지능 연구자 중에 인공지능이 핵폭탄만큼이나, 아니 핵폭탄보다 위험하다고 주장하는 사람이 늘고 있다.

인공지능 안전 연구의 중요성은 두말할 필요가 없다. 다만 한국은 AI 안전연구소가 ETRI 산하에 만들어지는 데 대한 우려가 있다. 전문가들의 위험 인식에 관한 연구는 전문가 자신이 다루는 과학기술이 안전하다고 간주하는 경향이 있음을 보여준다. 원자력 전문가는 생명공학의 위험을 높게 보지만 원자력발전소의 위험을 낮게 보고, 생명공학자는 거꾸로 생명공학의 위험을 낮게 보는 반면에 원자력발전소의 위험을 높게 평가하는 것이다. ETRI는 인공지능을 포함한 정보통신 기술을 연구·개발하는 기관이기에, 인공지능의 위험을 낮게 평가하면서 개발에 대한 압력이 커지면 안전을 상대적으로 경시할 수 있다. 무엇보다 AI 안전에 대한 주제는 인문사회과학과 공학의 학제적 협업에 따라 다루어야 하는데, ETRI 산하에서는 AI 안전 문제가 공학적인 것으로 협소하게 정의될 수 있다. 조직이 출범한 뒤에 지금과는 다른 거버넌스 구조를 모색하는 것이 바람직해 보인다.

△매일 조선일보에 실린 칼럼 5개가 담긴 뉴스레터를 받아보세요. 세상에 대한 통찰을 얻을 수 있습니다. 구독하기 ☞ https://page.stibee.com/subscriptions/91170

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?