[홍성욱의 과학 오디세이] [68] AI 안전연구소
한국전자통신연구원(ETRI) 소속의 ‘AI 안전연구소’가 소장 인선을 마치고 곧 개소할 예정이다. 작년에 영국에서 열린 ‘AI 안전 서밋’을 계기로 미국, 영국, 일본, 캐나다 등의 선진국들이 AI 안전연구소를 출범시켰고, 우리도 여기 발을 맞추어 1년 만에 조직을 구성했다. 이 연구소는 AI를 안전하게 사용할 수 있도록 기술 프레임을 만들고 인프라를 구축하고, 정책을 지원하는 역할을 할 예정이다.
인공지능은 인간 세계의 데이터를 가져다가 훈련받기 때문에, 인간 사회의 편견을 그대로 학습하곤 한다. 면접 인공지능이 여성을 차별한다든가, 가석방 심사용 인공지능이 (미국에서) 흑인을 차별하며, 공항에서 사용하는 출입국 심사 인공지능이 특정 민족을 차별하는 사례 등이 대표적이다. 여기에 딥페이크나 가짜 뉴스 같은 거짓 정보를 만드는 것도 쉬워져서, 이런 오용 사례도 늘어나고 있다. 게다가 조만간 도래할 수도 있는 ‘범용 인공지능’(AGI)은 인간보다 더 똑똑한 존재가 되어 인간의 통제를 벗어나고, 인류 전체에게 큰 위협을 가할 수도 있다. 요즘 인공지능 연구자 중에 인공지능이 핵폭탄만큼이나, 아니 핵폭탄보다 위험하다고 주장하는 사람이 늘고 있다.
인공지능 안전 연구의 중요성은 두말할 필요가 없다. 다만 한국은 AI 안전연구소가 ETRI 산하에 만들어지는 데 대한 우려가 있다. 전문가들의 위험 인식에 관한 연구는 전문가 자신이 다루는 과학기술이 안전하다고 간주하는 경향이 있음을 보여준다. 원자력 전문가는 생명공학의 위험을 높게 보지만 원자력발전소의 위험을 낮게 보고, 생명공학자는 거꾸로 생명공학의 위험을 낮게 보는 반면에 원자력발전소의 위험을 높게 평가하는 것이다. ETRI는 인공지능을 포함한 정보통신 기술을 연구·개발하는 기관이기에, 인공지능의 위험을 낮게 평가하면서 개발에 대한 압력이 커지면 안전을 상대적으로 경시할 수 있다. 무엇보다 AI 안전에 대한 주제는 인문사회과학과 공학의 학제적 협업에 따라 다루어야 하는데, ETRI 산하에서는 AI 안전 문제가 공학적인 것으로 협소하게 정의될 수 있다. 조직이 출범한 뒤에 지금과는 다른 거버넌스 구조를 모색하는 것이 바람직해 보인다.
△매일 조선일보에 실린 칼럼 5개가 담긴 뉴스레터를 받아보세요. 세상에 대한 통찰을 얻을 수 있습니다. 구독하기 ☞ https://page.stibee.com/subscriptions/91170
Copyright © 조선일보. 무단전재 및 재배포 금지.
- [경제포커스] 영광 군수는 정말 100만원씩 나눠줄까
- [기자의 시각] 고속도로 ‘통행료 인하’라는 거짓말
- [정수윤의 하이쿠로 읽는 일본] [23] 과메기와 정어리에 기대어
- [윤희영의 News English] ‘레임 덕’과 ‘데드 덕’의 차이
- [오세혁의 극적인 순간] 나는 ‘어려운’ 사람이 될 것이다
- [2030 플라자] 다섯 살 소년과 80대 경비원의 ‘마지막 퇴근’
- [이한우의 간신열전] [260] 정(正) 자의 빛과 그림자
- [황석희의 영화 같은 하루] [186] It’s not your disability
- 대만 만만하게 보다가... 프리미어12 야구 첫 판에 또 졌다
- 솔리다임, 세계 최대용량 AI 낸드 제품 출시