개인정보위, ‘AI 프라이버시팀’ 신설한다…AI시대 개인정보 활용 방향 제시

2023. 8. 3. 10:07
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

고학수 개인정보보호위원회 위원장 [개인정보위 제공]

[헤럴드경제=박로명 기자] “이제 인공지능(AI)이 전 세계, 모든 산업에서 기반 기술로 역할을 하고 있는 만큼, 무조건적인 ‘제로 리스크(zero risk)’를 추구하기보다 안전하게 데이터를 활용할 수 있는 새로운 디지털 질서를 정립해야 합니다.”

고학수 개인정보보호위원회 위원장은 3일 서울 종로구 정부서울청사에서 브리핑을 열고 ‘인공지능 시대 안전한 개인정보 활용 정책 방향’을 발표했다. 챗GPT의 등장으로 교육·의료·유통 등 여러 산업에서 AI 서비스가 고도화되고 있지만, 공개된 정보를 AI가 자체적으로 수집·활용하면서 개인정보 침해 가능성에 대한 비판이 제기되고 있어서다.

이에 따라 개인정보위는 개인정보 침해 위험을 최소화하면서도 AI 발전에 필요한 데이터를 안전하게 활용할 수 있도록 정책방향을 수립했다. AI 환경에서 현행 ‘개인정보 보호법’을 어떻게 해석하고 적용할 수 있을지에 대한 준칙을 제시하고, 구체적인 사항에 대해서는 정부와 민간이 협력해 공동 규율체계를 설계할 수 있는 근간을 마련했다.

▶‘AI 프라이버시팀’ 연내 신설…사업자와 소통창구 마련

국내 AI 산업은 2020년 1조9000억원에서 지난해 4조원 규모로 급성장했다. 여러 기업들이 AI 산업에 경쟁적으로 진출하고 있지만, 이들은 데이터를 수집하고 활용하는 데 있어 개인정보 보호 법령 저촉 여부가 모호하다고 지적하고 있다. 이에 개인정보위는 변화 속도가 빠르고 데이터 활용 범위와 방식이 복잡한 AI에 대해 원칙 중심의 규율체계를 정립하기로 했다.

이를 위해 오는 10월 AI 관련 사항을 전담하는 ‘AI 프라이버시팀(가칭)’을 신설한다. AI 관련 모델이나 서비스를 개발·제공하는 사업자와 소통할 수 있는 창구다. 사안별로 개인정보 처리의 적법성·안전성에 대한 법령해석을 지원하거나, 규제 샌드박스 적용을 검토하는 등 컨설팅 역할을 수행할 계획이다.

연내 ‘사전 적정성 검토제(가칭)’도 도입한다. 사업자가 요청할 경우 ‘개인정보 보호법’을 준수할 수 있도록 적용 방안을 마련하고, 개인정보위가 사업자의 이행 결과에 대해 적정하다고 판단한 사안에 대해서는 행정처분을 하지 않는 제도다. 사업자가 신청서를 제출한 시점부터 적용 방안 통보까지 원칙적으로 60일 이내 이뤄지도록 할 방침이다.

AI 프라이버시팀의 사안별·유형별 지원방식 [개인정보위 제공]

▶AI 개발 서비스 단계별로 개인정보 처리기준 구체화

개인정보위는 사업자가 AI를 개발하거나 서비스를 제공할 때 준수해야 하는 개인정보 처리 기준과 보호조치, 고려 사항 등을 단계별로 안내할 계획이다. 현행 ‘개인정보 보호법’을 바탕으로 그동안 축적된 해석례·의결례·판례 등을 종합해 원칙과 기준을 구체적으로 정립했다.

먼저 AI 모델·서비스를 기획하는 단계에서 ‘개인정보 보호 중심 설계 원칙’을 반영해 개인정보 침해 위험을 최소화할 수 있는 방안을 안내한다. 사업자가 데이터를 수집하는 단계에서는 개인정보를 ▷일반 개인정보 ▷공개된 정보 ▷영상 정보 ▷생체 인식정보로 나눠 처리할 수 있도록 했다.

AI 학습 단계에서는 개인정보를 가명 처리해 별도 동의 없이 연구·개발에 활용할 수 있도록 명시했다. 정보를 재식별할 수 있는 위험성에도 대비할 것을 당부했다. AI 서비스를 상용화하는 단계에서는 정보주체의 권리 보장과 투명성 확보가 필요하다는 점을 강조했다. 향후 구체적인 공개 범위와 방법, 권리 행사 방안에 대해서는 충분한 검토 이후 가이드라인을 마련할 계획이다.

[123RF]

▶‘AI 프라이버시 민·관 정책협의회’ 구성

개인정보위는 이번에 발표한 정책방향을 바탕으로 민간과 협력할 수 있도록 오는 10월 ‘AI 프라이버시 민·관 정책협의회’의를 구성한다. AI 기업과 개발자, 학계, 법조계, 시민단체 등 민·관이 협력해 분야별 데이터 처리 기준 등을 논의할 계획이다.

개인정보보호강화기술(PET)이 활성화 될 수 있도록 연구와 개발(R&D)를 확대해 관련 가이드라인도 마련한다. AI 위험 수준에 따라 차등적인 규제 설계가 가능하도록 판단할 수 있는 ‘AI 리스크 평가모델’도 구축한다. ‘규제 샌드박스’를 적용해 AI 분야의 다양한 사례를 축적, 오는 2025년까지 AI 위험성을 식별하고 평가할 수 있는 체계를 마련한다는 계획이다.

▶AI 국제규범 마련 위한 글로벌 협력 강화

개인정보위는 새로운 차원의 디지털 질서 수립을 선언한 ‘파리 이니셔티브’에 입각해 AI 개인정보 분야 국제규범 마련을 위한 협력체계를 강화해 나갈 계획이다. 지난 6월 서울에서 개최한 ‘AI와 데이터 프라이버시 국제 컨퍼런스’를 시작으로 주요국 개인정보 감독기구와 각 국의 법·정책과 처분 사례 등을 공유하고 있다.

아울러 2025년 ‘글로벌 프라이버시 총회(GPA)’를 유치해 AI 시대 개인정보 보호 이슈에 대해 논의할 계획이다. 이 밖에 여러 논의의 장에 적극적으로 참여해 새로운 국제규범 체계 확립에 주도적인 역할을 할 계획이다. 오픈AI·구글·메타 등 글로벌 AI 사업자와 국내 AI 사업자 간 소통도 활성화할 계획이다.

dodo@heraldcorp.com

Copyright © 헤럴드경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?