개보위, 'AI 프라이버시팀' 신설…"개인정보 국제 협의체 유치 총력"

송혜리 기자 2023. 8. 3. 10:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

'AI 시대 안전한 개인정보 활용 정책방향' 발표
단계별 개인정보 처리원칙 제시·신속한 법령해석·컨설팅 지원
개인정보위 로고(사진=개인정보위 제공) *재판매 및 DB 금지


【서울=뉴시스】송혜리 기자 = 개인정보보호위원회가 인공지능(AI)시대 개인정보 이슈 대응을 위해 'AI 프라이버시팀'을 신설한다.

AI프라이버시팀은 AI 분야 개인정보 처리 시 법령해석을 지원하고, 다양한 AI융합 기술이 시장에 진출 할 수 있도록 규제 샌드박스(실증특례) 활용 방안을 안내한다. 아울러 '사전 적정성 검토'를 통해 사업자가 채택한 개인정보 처리 방식의 적법성·안정성 등을 사전에 점검해주고, 해당 방식이 적정하다고 판단되는 경우엔 추후에라도 행정처분을 하지 않는다.

개인정보보호위원회는 3일 정부서울청사에서 브리핑을 열고 이 같은 내용을 담은 '인공지능 시대 안전한 개인정보 활용 정책방향'을 발표했다.

챗GPT 등장 이후 의료, 교육, 유통 등 다양한 분야에서 AI를 활용한 서비스가 고도화되면서 AI가 가져오는 편익에 대한 기대가 높아지고 있다. 하지만 정보주체가 예측하지 못한 방식으로 데이터가 처리되는 경우가 증가하면서 개인정보 침해 가능성에 대한 우려의 목소리 역시 높아지고 있는 것이 사실이다. AI 관련 기업들 또한 데이터를 수집하고 활용하는 데 있어 개인정보 보호 법령 등 관계 법령의 저촉여부를 둘러싸고 불확실성을 호소하고 있다.

이 같은 배경에 따라 개인정보위는 ▲불확실성 해소를 위한 원칙 기반 규율 추진체계 정립 ▲AI 개발·서비스 단계별 개인정보 처리기준 구체화 등을 목표로 '인공지능 시대 안전한 개인정보 활용 정책방향'을 마련했다. 이번 정책방향은 현 시점에서의 기초적인 기준과 원칙으로, 개인정보위는 이를 바탕으로 실제 현장에서 적용 가능하도록 민간과 협력해 세부 분야별로 구체화해 나갈 계획이다.

AI 프라이버시팀·사전 적정성 검토제 신설

개인정보위는 AI와 관련된 사항을 전담하는 원스톱 창구인 'AI 프라이버시팀(가칭)'을 오는 10월 중 신설한다.

AI 프라이버시팀은 AI모델·서비스를 개발·제공하는 사업자와의 소통창구로, 개인정보 처리 법령해석을 지원한다. 또한 신산업·기술의 시장진출을 임시적으로 허용해 주는 '규제 샌드박스' 적용을 검토하는 등 컨설팅 역할도 수행한다.

개인정보위는 '사전 적정성 검토제(가칭)'도 올해 중 도입한다. 이를 통해 AI 모델·서비스 관련 사업자의 요청이 있는 경우 데이터 처리의 적법성·안전성 등을 사전에 점검하고, 필요 시 보완방향을 제시한다. 또한 이에 따른 사업자의 이행결과가 적정하다고 판단한 경우, 추후 해당 행위에 대해서는 행정처분을 하지 않는다.

AI 단계별 개인정보 원칙 세워…공개된 정보 이용 가능한 경우도 체계화

AI 개발·서비스 단계별 개인정보 처리 원칙과 기준도 구체화했다.

우선, AI 모델·서비스를 기획하는 단계에선 '개인정보 보호 중심 설계 원칙(Privacy by Design)'을 반영해 모델링·학습·운영 과정에서 개인정보 침해 위험을 최소화할 수 있도록 했다.

데이터를 수집할 땐 개인정보의 처리 원칙을 일반 개인정보·공개된 정보·영상정보·생체인식정보로 나눠 제시했다. 특히, 대규모 언어모델 개발 시 공개된 정보 이용이 가능한 경우를 체계화하고, 이 때 고려해야 하는 사항을 안내했다. 구체적으로 정보주체의 동의 의사가 있었다고 객관적으로 추단되는 범위 내에서 개인정보 수집·이용이 가능하며, AI 개발·서비스를 제공하는 개인정보처리자의 정당한 이익이 정보주체의 권리보다 명백하게 우선하는 경우도 개인정보 수집·이용이 가능하다고 명시했다.

AI 학습 단계에서는 개인정보를 가명처리해 별도의 동의 없이 AI 연구개발이 가능하다고 명시했다. 다만, 이 경우 다른 정보와의 연계·결합을 통한 재식별 등 위험에 대한 방지 조치가 필요하도록 했다. AI 모델을 개발해 실제 이용자를 대상으로 서비스를 상용화하는 단계에선 투명성 확보와 정보주체의 권리보장이 필요하다는 점을 강조했다.

10월 중 민·관 정책협의회 구성해 분야별 가이드라인 마련…'글로벌 프라이버시 총회' 유치

개인정보위는 실제 현장에서 적용 가능한 분야별 가이드라인 마련을 위해 AI기업·개발자, 학계·법조계, 시민단체 등이 참여하는 'AI 프라이버시 민·관 정책협의회'를 오는 10월 중 구성할 예정이다. 협의회 추진계획에 따라, 분야별 데이터 처리기준 등을 공동으로 작업해 발표할 예정이다.

또한 AI에 관한 디지털 국제규범 형성을 위해 글로벌 협력체계를 공고히 한다. 개인정보위는 지난 6월 서울에서 개최한 'AI와 데이터 프라이버시 국제 콘퍼런스'를 시발점으로 삼아, 주요국 개인정보 감독기구와 함께 각 국의 법·정책, 처분 사례 등을 공유하고 AI로 인한 개인정보 침해 이슈 발생 시 신속하게 대응할 수 있도록 할 방침이다.

아울러 개인정보 분야 최대 규모의 국제 협의체인 '글로벌 프라이버시 총회(GPA)'를 오는 2025년에 유치해 AI를 중심으로 디지털 심화 시대에 대두할 프라이버시 이슈에 대해 논의할 예정이다.

고학수 위원장은 "이제 AI는 전 세계, 모든 산업에서 기반 기술로서 역할을 하고 있는 만큼 데이터를 어떻게 안전하게 활용할 수 있을지에 대한 새로운 디지털 질서 정립이 필요한 시점"이라고 말했다. 이어 "인공지능에 있어 무조건적인 '제로 리스크(zero risk)'를 추구하기 보다는 프라이버시 침해 최소화를 위한 실천적 노력을 경주하는 것이 더욱 중요하다는 인식 하에, 글로벌 규범을 선도할 수 있는 AI 개인정보 규율체계를 확립해 나가겠다"고 밝혔다.

☞공감언론 뉴시스 chewoo@newsis.com

Copyright © 뉴시스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?