“AI아마겟돈 우려 레드라인 넘어...안전장치 마련 필수”
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
세계적인 과학자들이 AI(인공지능) 아마겟돈을 피하기 위해 과거 냉정 시대과 같은 고강도 안전장치가 필요하다고 경고했다.
18일(현지시간) 영국 파이낸셜타임스(FT)는 서방과 중국 주요 AI과학자들이 강력한 기술 위험에 대처하기 위해 과거 핵충돌 방지를 위한 냉전 시대 국제협약과 같은 장치가 필요하다는 경고를 내놓았다고 보도했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
“고성능 AI 개발에 넘지 말아야 할 선 있어
냉전시대 핵충돌 방지협약 수준 장치 필요”
18일(현지시간) 영국 파이낸셜타임스(FT)는 서방과 중국 주요 AI과학자들이 강력한 기술 위험에 대처하기 위해 과거 핵충돌 방지를 위한 냉전 시대 국제협약과 같은 장치가 필요하다는 경고를 내놓았다고 보도했다.
FT는 AI관련 전문가그룹이 최근 중국 베이징에서 회의를 열고 생물무기와 사이버 공격 등 AI개발에 대한 ‘레드라인’을 확인했다며 전문가들인 회의 이후 경고성 성명문을 발표했다고 설명했다.
학자들은 성명에서 “인류에게 치명적이거나 실존적인 위험을 막기 위해 AI 안전에 대한 공동의 접근 방식이 필요하다”며 “냉전이 한창이던 시절 국제 과학계와 정부의 공조로 핵 재앙을 피할 수 있었다. 인류는 전례 없는 기술로 인해 발생할 수 있는 재앙을 피하기 위해 다시 한번 협력해야 한다”고 강조했다. 성명서에는 특히 “어떤 AI 시스템도 인간의 명시적인 승인과 도움 없이 스스로를 모방하거나 개선할 수 없어야 하며 자신의 힘과 영향력을 부당하게 증가시키기 위한 조치를 취해서는 안 된다”고 밝혔다.
이번 성명에는 신경망 연구로 튜링상을 수상하고 AI 분야를 개척한 ‘대부’로 불리는 제프리 힌튼 캐나다 토론토대 교수와 요수아 벤지오 캐나다 몬트리올대 교수를 비롯해 스튜어트 러셀 미 캘리포니아 버클리대 교수, 중국의 저명한 컴퓨터 과학자 앤드류 야오 등이 참여했다.
벤지오 교수는 “논의의 핵심은 강력한 AI 시스템이 넘지 말아야 할 레드라인에 관한 것”이라며 “그 선은 자율 시스템과 관련이 있다”고 설명했다.
Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지
- “누가봐도 난데”…허탈했던 조민, ‘입시비리’ 혐의 1심 이번주 나온다 - 매일경제
- 방재승 교수의 대국민 사과 “국민 없이는 의사도 없단 걸 잊었다” - 매일경제
- [MBN] '현역가왕' 톱7의 일본 버스킹 - 매일경제
- “체면 좀 구겨도돼, 제네시스 이기려면”…20%이상 깎아준다는 수입차, 어디? - 매일경제
- 직접 타봤다…한국인이 잘 모르는 취항 2년차 홍콩 가성비 항공사 - 매일경제
- 짬뽕서 나온 바퀴벌레 항의했더니…“볶음밥값 빼주겠다” 황당 제안 - 매일경제
- “나 건설십장인데 일용직 일할 분?”…보증금 명목 2억원 뜯어 도박에 탕진한 30대 - 매일경제
- “윤대통령 ‘물가와의 전쟁’ 선포”…비밀 병기 띄웠다 - 매일경제
- [단독] “여보, 우리도 쓸 수 있을까”…‘아빠 육아휴직’ 의무화한다는데 - 매일경제
- “김택연 이름 기억하라” “06년 WBC 오승환 떠올라” 베어스 괴물루키 국대 데뷔전, 전 세계 야