AI안전과 신뢰사회 [김윤명 박사의 AI 웨이브]

서경IN 2024. 6. 1. 07:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

■김윤명 디지털정책연구소 소장(법학박사)
인공지능(AI)의 편리성과 함께 안전성에 대한 우려도 함께 나오고 있다. 연합뉴스
[서울경제]

누구나 자신이 있는 곳이 안전하다는 것을 느낄 수 있는 상태의 유지는 국가의 중요한 책무이다. 물리적인 안전의 중요성은 물론 디지털 환경에서의 안전 또한 무시할 수 없다. 인터넷 기반의 다양한 서비스는 일상생활을 유지하는 중요한 기반시설이라는 점에서 디지털 안전체계는 중요하다.

디지털 환경에서의 안전은 프라이버시(privacy)로서의 개인의 사생활 보호를 넘어선 물리적인 환경이나 사회적인 영역에서의 안전까지로 확대되고 있다.

종래에는 개인의 생활 및 신체에 대한 안전이 중요한 개념이었다고 할 수 있으나, 다양한 영역으로 확장 중이다. 클라우드 컴퓨팅 환경이 대표적이다. 그렇지만, 클라우드 환경은 다양한 시설이 유기적으로 연계돼야 한다. 어느 하나가 문제를 일으키면 서비스 자체가 ‘먹통’이 된다. 데이터센터 화재사건으로 디지털 서비스가 멈추기도 했다. 접근이 편리해진 반면 관리가 그만큼 어려워졌다는 반증이기도 하다.

우리의 안전체계는 물리적인 안전을 위한 ‘재난안전기본법’과 SW안전을 위한 ‘소프트웨어 진흥법’, 그리고 네트워크 상에서의 침해사고 대응을 위한 ‘정보통신망법’ 등 다양한 법률 체계를 갖추고 있다. 네트워크와 SW는 융합되면서 서로 뗄 수 없는 관계를 형성한다. 네트워크를 통해 서비스 되는 SW를 의미하는 사스(SaaS)로서 클라우드컴퓨팅은 어떤가? 우리 SW진흥법에서의 SW안전은 “외부로부터의 침해 행위가 없는 상태에서 소프트웨어의 내부적인 오작동 및 안전기능 미비 등으로 인하여 발생할 수 있는 사고로부터 사람의 생명이나 신체에 대한 위험에 충분한 대비가 되어 있는 상태”로 정의된다.

SW 안전은 SW자체 또는 SW와 밀접하게 구현된 시스템이나 플랫폼 등 다양한 요소에서 사용되는 SW로 인해 발생할 수 있는 위험을 관리하기 위한 개념이자 목표이다. 다만, SW 품질은 SW 안전을 위한 기능적인 사항을 의미하기 때문에 품질이 기준을 담보하지 못할 경우에는 안전에까지 영향을 미칠 수 있다.. 그렇지만 SW 안전의 정의에서는 명확하게 외부로부터의 침입을 의미하는 네트워크를 통한 침해사고의 경우는 SW 안전의 범위에서 제외됨을 알 수 있다. 하지만 네트워크 안전과 SW 안전은 별개의 것으로 보기 어렵다.

기술적인 안전은 무엇보다 중요하다. AI가 일상으로 들어서고 있다. SW가 단순한 자동화의 의미를 가졌다면, AI는 의사결정이나 창작활동을 대신 해주는 수준이다. 그 만큼, 결과에 대한 의존도가 높아지기 때문에 AI의 내재적인 안전을 담보할 수 있는 방안이 마련돼야 한다.

그렇지 않을 경우, 인간의 통제를 벗어날 수 있기 때문이다. 지금의 수준이 그 정도까지는 아니지만 기술의 발전은 빠르게 이뤄지고 있다는 점을 고려해야 한다.

AI 안전은 인간다운 삶을 위해서도 필요한 요소이다. AI를 통해 생성하는 다양한 생성물이 타인의 권리를 침해하거나 또는 AI가 잘못 판단하거나 알고리즘이 조작된 경우도 있다. 기술의 발전을 위해 규제는 지양될 필요가 있다. 기술을 통제하지 않는다면 그 뒷감당은 이용자인 국민의 몫으로 남기 때문이다.

기술개발은 선의에 따른 것이기도 하다. 그렇지만 기술은 이용하는 과정에서 의도성이 들어가고, 그에 따라 차별이나 편향이 반영되곤 한다. 물론, 무의식적으로 이뤄지는 편견은 더 큰 문제일 수 있다. 확인하기가 쉽지 않기 때문이다. 블랙박스로서 AI에 대한 규제를 주장하는 이유이다. AI에 대한 규제방법으로 설명의무를 부과하기도 한다. 설명가능한 AI의 개발도 마찬가지다. 거대언어모델(LLM)인 AI모델의 블랙박스를 열 수 있는 방법들이 제시되고 있다.

AI의 안전은 AI자체의 안전도 중요하지만, AI를 활용하거나 사용되는 과정에서 사회적으로 미치는 영향에 대해서도 살펴봐야 한다. AI가 안전하지 못한 상황에서 작동되는 경우, 비상버튼이나 셧다운 시킬 수 있어야 한다. 인종차별이나 성차별과 같은 대화를 생성했던 챗봇인 테이사건이나 이루다사건에서 챗봇을 셧다운 시켰다. 문제의 확산을 막기 위한 의사결정이었다. 외부로부터 입력되는 데이터에 의해 내부 데이터나 시스템이 오염되지 않도록 개발했어야 했다. 두 사건에서처럼, AI가 문제는 아니다. 이를 이용하는 이용자의 악의적인 행동이 문제이다. AI가 문제를 일으키는 것이 아닌 사람이 문제를 일으키고 있는 상황인 것이다.

AI는 일상이다. 그렇지만 AI가 가야할 길은 멀기만 하다. 그 과정에서 우리의 선택은 어떤 것이어야할지 여간 고민스러운 일이 아니다. 분명한 점은 기술이 인간을 이롭게 할 것이라는 점, 그렇지만 안전을 위해 기술에 대한 통제는 있어야한다는 점이다. 이를 위해 AI기술의 안전성, 서비스의 공정성, 서비스제공자의 신뢰성, 이용자의 윤리성, 정책의 일관성은 필요조건이다. 이로써 AI안전은 담보될 수 있기 때문이다.

마침내 EU AI법의 퍼즐이 맞추어졌고, 이제 시행만을 남겨둔 상태이다. 이는 AI에 대한 규제가 윤리 중심에서 법률 중심으로 이동하고 있음을 보여준다. AI 법률도 AI 기술의 안전한 이용에 방점을 둬야 한다. 다만, 기술에 대한 규제보다는 문제되는 비즈니스 모델(BM)에 대한 규제여야 한다. 무엇보다 규제는 명확하고 예측가능해야 한다.

서경IN skin@sedaily.com

Copyright © 서울경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?