똑똑해지는 AI, 친구일까 적일까…한국·EU·미국 대응책은
韓 "규제, 단계적으로 도입해야"…美·EU도 "규제 논의 본격화"
[서울=뉴시스] 오동현 기자 = 챗GPT와 같은 생성형 인공지능(AI) 기술이 일상에 파고들수록 부작용을 우려하는 목소리도 만만치 않게 커지고 있다. 이에 한국을 포함한 세계 주요 국가에서는 자국의 정보기술(IT) 산업 환경에 따라 내거티브(부정적) 혹은 포지티브(긍정적) 관점에서 규제 정책을 마련하고 있다.
챗GPT의 등장은 인터넷과 스마트폰에 이어 인류의 삶을 뒤바꿀 새로운 변곡점으로 주목받는다. 사람을 대신해 글을 써주거나 그림을 그려주는 등 실생활과 밀접한 생성형 AI 서비스가 잇따라 출시되면서, 이미 국내 직장인 10명 중 7명은 이를 써본 경험이 있다는 조사결과도 있다.
이런 열풍에 빅테크 기업들은 자체적으로 초거대 언어모델(LLM)을 개발하고 있고, 그럴 여력이 부족한 기업들은 API(응용프로그램 인터페이스)형태로 챗GPT를 적용하거나, 챗GPT에 플로그인 형태로 자사 서비스를 접목하는 방식으로 새로운 AI 시대를 준비하고 있다.
한편으론 AI의 위험성을 우려하는 시선도 적지 않다. 비영리단체 AI 안전센터는 지난 5월 30일 "AI로 인한 멸종 위험을 줄이는 것을 전염병 대유행이나 핵전쟁과 같은 사회적 위협과 함께 최우선 과제로 삼아야 한다"는 성명서를 발표했다. 샘 알트만 오픈AI 최고경영자를 비롯해 케빈 스콧 마이크로소프트 촤고기술책임자, 라일라 이브라힘 구글 AI 담당 임원 등 350여 명이 동참했다.
스탠포드대학교 인간중심 인공지능 연구소는 "'인공지능, 알고리즘, 자동화 사고 및 논쟁 공공 데이터베이스'에 보고된 AI 사고 및 논쟁 수가 2012년 10건에서 2021년 260건으로 10년 만에 26배 증가했다"고 밝혔다. 이는 AI가 현실에서 널리 사용되기 시작했고, AI가 윤리적으로 오·남용될 수 있다는 우려가 높아졌음을 보여준다.
6일 국회입법조사처 보고서에 따르면, 지난해 보고된 주요 사례로 ▲화상회의 서비스에 AI를 활용해 학생 감정을 모니터링하는 시스템을 개발한 사건 ▲런던 경찰청이 범죄조직의 잠재적 위험도를 평가하기 위해 사용하는 AI 도구에서 특정 민족과 인종을 차별하는 경향이 발견된 사건 등이 있다.
AI 기술의 효용성과 영향력이 증가하는 만큼, AI로 인한 부작용과 역기능을 방지하기 위한 대응과 통제 수단 마련이 필요하다는 목소리가 높아지고 있는 배경이다.
이에 우리나라를 비롯한 유럽연합(EU), 미국 등 세계 주요 국가에서는 AI에 대한 규제 논의를 본격화하고 있다. AI의 '공정성·책임성·투명성·윤리의식'에 대한 규제가 어느 정도 필요하다는 관점에서 사회적 합의가 도출되고 있는 것이다.
우리나라 'AI 산업 육성'에 초점…"위험하다고 포기해선 안돼"
유럽연합과 미국의 AI 대응 정책은
이에 앞서 과학기술정보통신부는 2020년 '인공지능 윤리 기준', 2021년 '신뢰할 수 있는 인공지능 실현전략(안)'을 발표하고 올해부터 AI 제품·서비스별 평가체계를 마련하기 시작하는 등 관련 조치를 취하고 있다. 개인정보보호위원회·방송통신위원회·금융위원회는 2021년 관련 자율점검표·가이드라인을, 국가인권위원회는 2022년 '인공지능 개발과 활용에 관한 인권 가이드라인'을 마련한 바 있다.
국회입법조사처는 "AI의 공정성·책임성·투명성·윤리의식을 위해서 데이터 출처·품질을 점검하고 AI 시스템의 기능과 보안을 평가하는 내부 거버넌스를 구축하며, 그 위험을 평가해 경감 조치를 취하도록 하는 방향의 입법이 논의되고 있다"며 "AI 기술이 어디까지 발전할지 예상하기 어려운 만큼 규제를 한 번에 마련하기보다는 지속적으로 논의하며 단계적으로 도입할 필요가 있다"고 제언했다.
그러면서 "AI 규제의 실효성을 확보하기 위해서는 정부의 AI 검증 조사 및 집행 역량을 확보해야 할 것"이라고 분석했다.
윤두현 국회 과학기술정보방송통신위원회 위원(국민의힘)도 지난 5일 뉴시스 IT 포럼에서 "새로운 세상이 다가오면 새로운 이점과 함께 새로운 위험도 함께 온다"면서 "이 새로운 위험을 사전에 막고, 막을 수 없더라도 폐해를 최소화할 수 있는 방안을 마련해야 한다"고 제언했다.
특히 윤 의원은 "물가에 가서 조심하는 것보다, 물가에 아예 안 가는 게 안전하다는 식으로 AI를 하지 말자는 의견이 나와선 안된다"며 "새로운 기술에 필연적으로 수반되는 새로운 위험을 잘 막을 수 있는 법적, 제도적인 뒷받침이 필요하다"고 말했다.
이종호 과학기술정보통신부 장관 역시 "AI, 메타버스 등 혁신적 디지털 기술로 인해 일상은 편리해지고 산업적 효율성이 대폭 향상되고 있지만, 디지털 기술 심화에 따른 문제점도 대두되고 있는 것이 현실"이라며 "우리는 나날이 고도화되는 디지털 기술이 우리의 삶과 사회 전반을 뒤흔드는 대변혁을 경험하고 있는 만큼 새로운 차원의 규범 체계를 만드는 것이 반드시 필요하다"고 강조했다.
EU는 AI법안에 대한 최종 단계로, 올해 6월 기준으로 EU 의회, EU 집행위원회 및 이사회가 3자 협상을 진행 중이다.
EU의 AI법안은 인간 중심의 접근을 위해 ①인간에 의한 감독 ②기술적 견고성과 안전성 ③프라이버시 및 데이터 거버넌스 ④투명성 ⑤다양성·비차별성·공정성 ⑥사회 및 환경복지를 AI가 준수해야 할 일반원칙으로 제시하고 있다.
이에 기반해 사람의 안전, 생계, 권리에 명백한 위협으로 간주되는 AI 시스템은 금지하고, 고위험에 해당하는 AI 시스템에는 위험관리 시스템 운영 위험과 차별 결과를 최소화하는 데이터 마련, 결과의 추적성을 보장하기 위한 자동 로그 생성, 위험에 대한 정보 제공, 기본권 영향평가 등의 의무를 부여한다.
또 생성형 AI에 대해서는 사람이 AI와 상호작용하고 있음을 알리고, 기본권, 민주주의, 안전 등에 위반되지 않는 콘텐츠를 생성할 것을 요구하고 있다.
최근 미국에서도 AI에 대한 어느 정도의 규제가 필요하다는 목소리가 높아지고 있다.
2019년에 이어 2022년에도 미국 상·하원에 각각 알고리즘책임법안이 발의됐다. 법안은 알고리즘을 개발, 배포하는 일정 기준 이상의 기업으로 하여금 자동화된 의사결정 시스템과 그 시스템을 중요한 의사결정에 활용하는 과정이 소비자에게 미치는 영향을 평가하도록 해 투명성과 책임성을 부과하고 있다.
영향평가에서는 관련 이해관계자와의 협의에 대한 확인·설명, 개인정보 위험 및 개인정보 보호 강화 조치, 부정적 영향과 관련된 지속적인 훈련과 교육에 대한 지원·수행, 안전장치 필요성 및 개발가능성에 대한 평가, 사용되는 모든 데이터의 업데이트 유지·보관, 소비자의 권리 및 소비자에 대한 부정적 영향 완화 방안 등에 대한 평가가 이뤄져야 한다.
기업은 영향평가 요약보고서를 작성해 미국 연방거래위원회(FTC)에 제출해야 하고, FTC는 영향평가의 대상·절차·기준 등에 대한 구체적인 규정을 마련해야 한다.
☞공감언론 뉴시스 odong85@newsis.com
Copyright © 뉴시스. 무단전재 및 재배포 금지.
- 이효리, 스타킹만 신고 과감한 팬츠리스 룩
- 민경훈♥신기은 PD, 결혼식 현장 공개…'아는 형님' 단체 축가
- 송승헌, 신사역 스타벅스 건물주에 이어…최소 678억 시세차익
- '박연수와 양육비 갈등' 송종국, 캐나다 이민? "영주권 나왔다"
- '사혼' 박영규, 54세 나이차 딸 최초 공개…"난 행운아"
- 허윤정 "전남편 강남 업소 사장…수백억 날리고 이혼"
- "옥경이 치매 멈춰"…태진아, 5년 간병 끝 희소식
- 박수홍 아내 김다예 "제왕절개 출산 후 고열로 응급실行"
- "성매매 중독 남편, 불륜 들키자 칼부림 협박…생활비도 끊어"
- '정답소녀' 김수정, '동덕여대 공학 반대 서명' 동참 "모자란 남자…"