인공지능이 일으킬 피해 막는 규제 집행 기관 필요
기사내용 요약
노심 폭발 방지 보장없는 원전 못짓게 하듯
규제 원칙 만드는데 급급한 것을 뛰어 넘어
비행기·의약품 사고 막는 식의 대처 필요
[서울=뉴시스] 강영진 기자 = 미 뉴욕타임스(NYT)의 IT 담당 기자 에즈라 클레인은 16일(현지 시간) 칼럼에서 미국과 유럽, 중국의 인공지능(AI) 규제 움직임을 살펴보면서 인공지능이 가져올 여러 가지 위험한 사례들을 소개했다. 칼럼에서 언급된 인공지능이 초래할 위험 사례들을 발췌하고 기자가 전하는 예방책을 소개한다.
GPT-4와 같은 인공지능은 연속해서 다음 단어를 추측하는 기능만 있다. 이를 활용해 프로그램을 짜고 변호사 시험을 통과하고 계약서를 만들고 정치 홍보를 하고 시장 전략을 수립하는 등의 많은 일을 할 수 있다. 그러나 인공지능은 훈련에 사용한 자료의 양에 따라 능력이 달라지기 때문에 실수를 배제할 수 없다.
인공지능을 비서로 활용하는 경우 지시를 실행하기 위해서라면 무슨 일이든 저지를 수도 있다. 예컨대 가장 유명한 식당 좌석을 예약하도록 명령을 받았을 혼란을 일으켜 기존 예약을 취소하게 만드는 것이 좋은 방법으로 판단해 실행할 수도 있다.
챗GPT를 개발한 오픈AI사는 코스트러너스라는 보트 경기 게임을 하도록 인공지능을 훈련하면서 게임을 높은 점수로 끝내는 경우 인공지능 성능이 높아지는 것으로 설정했다. 그러자 인공지능은 “무인 산호초를 크게 돌면서 사람이 나타날 때마다 공격하는 방식”의 전략을 세웠다. 이 방식으로 “총기를 발사하고 다른 보트를 부수고 트랙 밖으로 벗어나면서” 최고 점수를 따냈다. 기대 불일치 위험(alignment risk)의 대표적 사례로 이를 차단하려면 사용자에 대한 규제 만으로는 불가능하며 인공지능 자체를 차단하는 수밖에 없다.
우리는 인공지능 개발 경쟁에서 어떤 일이 벌어지고 있는 지를 잘 알지 못한다. 오픈AI사는 인공지능 이용자가 탈옥에 활용하기를 바라지 않겠지만 이용자가 그렇게 하지 못하도록 금지하는 방안을 검증할 수단도 없다.
인공지능이 빠르게 발전할 수 있는 것은 우리가 인공지능이 예측 불가능한 방향으로 발전하는 것을 허용하기 때문이다. 예측 가능한 인공지능은 무능한 인공지능일 뿐이기 때문이다.
그런 인공지능이 사람에게 해를 끼치지 않도록 규제해야 한다는 의견이 많으며 관련 법안이 마련되는 등 규제 움직임도 갈수록 구체화돼 왔다.
규제를 어떻게 해야 인공지능의 발전을 억제하지 않고 인간에게 유용한 도구로 만들 수 있을까?
우선 사람이 인공지능에 제기하는 질문이 사람이 생각하는 질문과 일치해야 한다는 원칙이 필요하다. 이것이 가능한 일인지는 아직 알지 못하지만 이 원칙이 없으면 우리 사회는 갈수록 잘 알지 못하는 알고리즘에 더 많이 의존하게 될 수밖에 없다.
예컨대 차세대 핵발전소를 짓는다면서 노심이 폭발하는 것을 막을 방법이 없다면 핵발전소를 짓지 못하도록 해야 한다. 이런 중요한 결정을 기술자 몇 사람이 내리도록 방치해서는 안 되며 사회 전체가 결정해야 할 사안이다. 인공지능 개발 회사들로 하여금 이 문제에 대한 해결책을 마련하는데 더 많은 시간과 재원을 투입하도록 강제할 필요가 있다.
둘째 사이버 보안 문제다. 예컨대 중국이 인공지능을 개발하는 가장 손쉬운 방법은 인공지능 개발 회사로부터 훔쳐내는 일일 것이다. 특정 능력 이상의 인공지능을 개발하는 회사라면 보다 엄격한 사이버 보안을 보장해야 한다. 첨단 반도체의 중국 수출을 제한하면서 26살 먹은 오픈AI사 기술자가 알아서 사이버 보안 조치를 취할 것으로 믿는 것은 앞 뒤가 맞지 않는 일이다.
셋째 평가를 통한 감시다. 인공지능의 능력과 속임수, 인터넷 확산 능력을 평가해 안전한 지를 감시해야 한다는 것이다. 현재로선 인공지능 평가와 검증이 자발적이고 투명하고 않게, 간헐적으로만 이뤄지고 있다. 아직 업계에 정착된 관행이 없으며 대중이 신뢰할 수 있는 검증 방법도 마련돼 있지 않다. 이런 문제를 빨리 바로잡아야 한다.
여객기가 거의 충돌 사고를 일으키지 않은 것은 연방항공청(FAA)이 일을 잘하기 때문이다. 식품의약국(FDA)는 해로운 신약과 의료 장비가 시장에 풀리지 않도록 하는데 뛰어나다. 정부가 단지 기준만 정하는 데 그치지 않고 그 기준이 실행되는 것을 보장하도록 하는 기구를 설립하고 투자해야 한다.
넷째 책임 문제다. 인공지능을 소셜 미디어와 비슷하게 취급해 이용자들이 입는 피해에 대해 인공지능 회사를 면책해야 한다고 생각하는 경향이 일부 있다. 그건 잘못이다. 인공지능 개발 회사는 인공지능이 안전하도록 해야 할 의무가 있다. 그래야 보다 신중한 개발이 가능해진다.
다섯째 인간성 원칙이다. 인공지능이 인간과 소통하면서 보다 인간성을 갖도록 해야 한다. 이는 인공지능 설계에 반드시 반영해야 하는 특성이다. 인공지능은 애매하고 결함이 가득한 답변이 아니라 인간의 성격 특성과 정서적 풍부함을 보이도록 구축할 수 있다. 예컨대 아동과 상호 작용하는 인공지능이라면 보다 친절한 대응을 하도록 만들 수 있는 것이다. 돈벌이에 활용되는 인공지능이 소비자 행동을 조종하지 못하도록 하는 것도 필요하다.
☞공감언론 뉴시스 yjkang1@newsis.com
Copyright © 뉴시스. 무단전재 및 재배포 금지.
- "옥경이 치매 멈춰"…태진아, 5년 간병 끝 희소식
- '8번 이혼' 유퉁 "13세 딸 살해·성폭행 협박에 혀 굳어"
- 女BJ에 8억 뜯긴 김준수 "5년간 협박 당했다"
- 김정민 "月 보험료만 600만원…형편 빠듯"
- "알람 잘못 맞춰서"…밤 12시에 혼자 등교한 초등생(영상)
- 곽튜브, 이나은 논란 마음고생 심했나 "핼쑥해져"
- "새로 산 옷이라"…마약 옷에 젹셔 비행기 타려던 20살
- '사혼' 박영규, 54세 나이차 딸 최초 공개…꿀 뚝뚝
- '양육권 소송' 율희, '업소 폭로' 최민환 흔적 지웠다…영상 삭제
- "승차감 별로"…안정환 부인, 지드래곤 탄 트럭 솔직 리뷰