이미지·영상·음성·텍스트 가명처리 기준 마련…의료·교통 등 시나리오 제공

이기림 기자 2024. 2. 4. 12:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

이미지, 영상, 음성, 텍스트 등 인공지능(AI) 시대 기술개발의 핵심 재료인 비정형데이터에 대한 가명정보 처리 기준이 새롭게 마련됐다.

비정형데이터는 인공지능 및 데이터 복원기술의 발달에 따라 다른 정보와의 연계·결합 없이도 개인을 재식별해낼 수 있는 위험이 있으므로, 가명처리된 비정형데이터 활용 시 관련 시스템·소프트웨어(SW)의 접근·사용 제한 등 통제방안을 마련해야 한다고 제시했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

개인정보위, 1년여 준비작업 거쳐 '가명정보 처리 가이드라인' 개정
고학수 개인정보보호위원장. 2024.1.24/뉴스1 ⓒ News1 허경 기자

(서울=뉴스1) 이기림 기자 = 이미지, 영상, 음성, 텍스트 등 인공지능(AI) 시대 기술개발의 핵심 재료인 비정형데이터에 대한 가명정보 처리 기준이 새롭게 마련됐다. 가명정보는 성명·전화번호 등 개인을 식별할 수 있는 정보를 삭제하거나 대체하는 등 방법으로 식별 가능성을 낮춘 개인정보를 말한다.

개인정보위원회는 정책연구용역, 전문가 태스크포스 운영, 업계 및 관계부처 의견수렴 등 1년여 기간 준비작업을 거쳐 '가명정보 처리 가이드라인'을 대폭 개정했다고 4일 밝혔다.

최근 AI 기술과 컴퓨팅 자원의 발달로 비정형데이터(이미지·영상·음성·텍스트 등)에 대한 활용수요가 폭발적으로 증가했다. 그러나 기존 가이드라인은 정형데이터에 대한 처리기준만 제시하고 있어 기업, 연구기관 등은 적합한 가명처리 방법이나 수준을 알지 못하는 등 현장의 불확실성이 크다는 지적이 나왔다.

개정된 가이드라인에는 비정형데이터를 가명처리하고 활용하는 과정에서 특수하게 나타날 수 있는 개인정보 위험을 사전에 확인하고 통제하기 위한 원칙과 함께, 의료‧교통‧챗봇 등 각 분야 사례 및 시나리오를 제공해 현장에서 손쉽게 활용할 수 있도록 했다.

특히 7종의 시나리오는 80장 분량을 할애해 가명정보 활용 전 과정을 상세하게 안내하고 있다. 의료데이터, CCTV 영상, 음성 대화‧상담 정보를 활용하는 바이오‧헬스, 인공지능, 데이터 솔루션 개발 등 여러 분야에서 안전하게 가명처리를 하는 데 유용할 전망이다.

가이드라인에 따르면 비정형데이터는 개인식별 가능 정보에 대한 판단이 상황에 따라 달라질 수 있는 만큼, 데이터 처리목적 및 환경, 민감도 등을 종합적으로 고려해 개인식별 위험을 판단하고 합리적인 처리방법과 수준을 정하도록 했다.

예를 들어 정형데이터는 주민번호, 전화번호, 주소처럼 개인식별위험이 있는 정보가 비교적 명확히 구분되지만, 비정형데이터는 그렇지 않다. 눈‧코‧입을 알아볼 수 없는 거리‧각도에서 찍힌 CCTV 영상‧사진도 머리스타일, 흉터, 문신 등 특이한 신체적 특징 때문에 식별위험이 있을 수 있다.

개인정보위는 가이드라인에서 제시한 개인식별 위험성 검토 체크리스트를 통해 식별위험을 사전에 진단하고, 위험을 낮추기 위한 관리적‧환경적 통제방안을 마련해 활용토록 했다.

연구목적 달성에 필수적인 정보항목을 남기는 경우에는 이외 정보에 대한 가명처리 수준을 높이거나 접근권한 통제, 식별에 악용될 수 있는 소프트웨어(SW) 반입제한, 보안서약서 징구 등 조치를 시행하도록 했다.

또한 비정형데이터에 내재된 개인식별 위험 요인을 완벽하게 탐지해 처리할 수 있는 기술이 없기 때문에, 이런 기술적 한계 등을 보완하기 위한 조치들을 이행할 것을 권고했다.

비정형데이터는 인공지능 및 데이터 복원기술의 발달에 따라 다른 정보와의 연계·결합 없이도 개인을 재식별해낼 수 있는 위험이 있으므로, 가명처리된 비정형데이터 활용 시 관련 시스템·소프트웨어(SW)의 접근·사용 제한 등 통제방안을 마련해야 한다고 제시했다.

다만 인공지능 개발·활용 과정에서 나타날 수 있는 다양한 위험을 사전에 완벽하게 제거하는 것은 불가능하므로, 인공지능 서비스 제공 과정에서도 개인식별 위험 등 정보주체 권익 침해 가능성을 지속 모니터링하도록 했다.

고학수 개인정보위원장은 "인공지능 등 많은 신기술 영역은 현장의 불확실성을 해소할 수 있는 세밀한 데이터 처리정책이 중요하다"며 "대규모 언어모형 등 생성형 AI와 관련한 '공개된 개인정보 처리 가이드라인'등 현장의 어려움을 해소할 수 있는 기준을 올해 중에 순차적으로 발표하겠다"고 밝혔다.

lgirim@news1.kr

Copyright © 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.

이 기사에 대해 어떻게 생각하시나요?