[팀장 칼럼] ‘딥페이크’보다 더 위험한 AI 오고 있다

이정아 사이언스조선부 매거진팀장 2024. 3. 11. 15:01
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

신종 코로나바이러스감염증(코로나19) 팬데믹 초기, 일각에서는 중국 우한바이러스연구소에서 만든 바이러스가 유출된 게 아니냐는 주장이 제기됐다. 이 연구원은 바이러스가 처음 발견된 시장으로부터 불과 20여 ㎞ 떨어져 있고, 박쥐 등 야생동물의 바이러스 변종과 항바이러스제를 연구 개발해 온 곳이다. 세계보건기구(WHO)까지 나서 조사했지만 직접적인 증거를 찾지 못했다. 결국 코로나19는 생태계 파괴로 바이러스에 감염된 야생동물과 인간이 접촉하면서 발생했을 것이라는 주장에 힘이 실렸다.

만약 코로나19 이상으로 위협적인 바이러스를 개발해 퍼뜨릴 수 있다면 어떻게 될까. 치사율 높은 바이러스나 단백질을 만들어 공중에 퍼뜨린다면 총, 칼을 사용하지 않고도 상당수 인구가 사라질 만큼 치명적일 것이다. 최근 일부 과학자들은 인공지능(AI)이 코로나19 이상으로 전 인류를 위협할 만한 신종 생화학 무기를 만들 수 있다고 우려했다. 신약과 백신을 빠르게 개발하기 위한 AI가 오히려 신종 바이러스나 병원체를 만들 위험이 있다는 것이다.

8일(현지 시각) 네이처에 따르면 단백질 연구자 128명이 생명과학자 AI가 만든 단백질이 생화학 무기로 쓰이지 않도록 윤리적으로 개발해 사용하자는 문서에 서명했다. 단백질 설계 AI로 세계적인 전문가인 미국 워싱턴대 데이비드 베이커 생화학과 교수(단백질디자인연구소장)가 앞장 섰다. 이 문서에는 AI 기술이 사회에 전반적인 피해를 입히거나 오용될 만한 연구를 삼가자, 위험한 생체분자를 만들기 전에 DNA 합성 스크리닝을 받자는 등의 내용이 들었다.

최근 10여년간 AI가 빠르게 발전하며 이제는 AI가 만든 그림이나 영상, 글, 게임 등이 놀랍지 않다. 문제는 이런 AI가 범죄나 비윤리적인 목적으로 쓰이기 시작했다는 것이다. AI로 가짜 영상이나 목소리를 만드는 ‘딥페이크’기술은 가장 대표적인 사례다.

지난 1월에는 ‘가짜 바이든’ 대통령이 미국 예비경선을 하루 앞두고 민주당 당원들에게 “투표하지 말라”는 전화를 걸었다. 도널드 트럼프 전 대통령도 미국 경찰에게 체포당하는 가짜 영상이 돌았다. 국내에서는 지난 2월 ‘가짜 윤석열’ 대통령이 등장해 가짜 양심 고백을 하기도 했다. 지난해에는 기업 대상 이메일 피싱이나 개인을 대상으로 하는 보이스피싱 범죄에도 악용된 적이 있다.

이와 마찬가지로 구글 딥마인드의 ‘알파폴드’, 베이커 교수팀의 ‘로제타폴드’나 ‘프로틴 MPNN’ 등 단백질 설계 AI도 악용될 우려가 있다. 연구자가 새로운 단백질을 설계하고 만들려면 수십 년이 걸리지만, AI는 수 분 안에 만들어 낸다. 특정 분자에 결합하는 단백질을 설계하면 신약이나 항바이러스제를 만들 수도 있지만, 반대로 인류를 위협하는 생화학 무기가 탄생할 위험도 있다.

이번에 서명한 연구자들은 AI를 악용하지 못하도록 윤리적인 지침을 만들어야 한다고 주장했다. 또한 각국 정부가 나서야 한다고 주장했다. 연구자들 스스로가 악용하지 않는 것도 중요하지만 단백질 설계 AI가 어떻게 사용되고 있는지, 인위적으로 만든 단백질이 독소나 병원체는 아닌지 국가적인 차원에서 모니터링해야 한다는 것이다.

문제는 AI에 대한 윤리적 지침이나 법적 가이드라인이 만들어지지 않은 상태에서 AI가 너무나 빠른 속도로 발전하고 있다는 점이다. AI가 만든 놀랍고 신기한 기술에만 현혹된 사이, 예측조차 하지 못한 범죄에 악용돼 수많은 사람이 건강이나 재산, 개인 프라이버시를 침해 당할 위험이 커졌다.

한국은 미국이나 유럽 등 선진국들에 비해 AI 악용 문제에 대한 대응을 제대로 나서지 않고 있다. 최근 네이버와 카카오, SK커뮤니케이션즈가 악의적 선거 딥페이크 사용 방지를 위한 공동선언을 채택했다지만, 기업들의 자발적인 의지일 뿐 정부가 적극적으로 나선 대비책이 아니라는 점이 아쉽다. 지난해에는 과학기술정보통신부가 각 분야 전문가들을 모아 챗GPT와 같은 생성형 AI 악용 위협에 대한 토론회를 가졌다. 하지만 당시 정보 보호와 사이버 보안 위협에 대응하겠다는 수준에만 머물렀을 뿐, 악용하는 행위 자체를 막을 현실적인 방법을 아직 찾지 못하고 있다.

정부는 AI를 악용한 범죄가 기승을 부리기 전에, 절도나 사기, 상해 같은 다른 범죄처럼 이를 적극적으로 처벌하고 차단할 제도적 장치를 서둘러 마련해야 한다. 또한 AI의 정확성을 높이기 위해서 뿐만 아니라, 개인과 사회를 안전하게 지키기 위한 기술을 개발하도록 투자해야 한다. AI가 사용하는 데이터의 투명성을 감시하고, AI가 악용된 사례를 찾아내 이를 차단할 수 있는 기술을 개발하도록 지원해야 한다. 특히 AI로 인한 생화학 무기 개발 등 전 인류를 위협할 문제에 대해서는 다른 국가와 협력해 글로벌하게 대응할 수 있는 장치를 마련해야 한다.

물론 모든 범죄를 100% 다 막을 수는 없다. 하지만 법적 장치가 있을 때와 없을 때의 차이는 크다. AI 악용으로 인한 ‘팬데믹’이 한번이라도 일어난 뒤에는 이미 대응하기가 어렵다.

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?