[주장] 초거대 AI 시대, 헌법 127조를 "인간중심 과학기술"로 재설계해야
[유도진 기자]
|
|
| ▲ 초거대 AI 시대에 우리 헌법이 수행해야 할 역사적 과제는? |
| ⓒ omilaev on Unsplash |
우려는 현실이 되고 있다. 지난 23일 대한민국 정책브리핑에 따르면 경찰청은 2029년까지 보디캠 1만 4000대를 도입한다고 한다. 지방자치단체들은 통합관제센터를 AI 얼굴 인식 기반으로 고도화하고, 개인정보위는 관제 인력 자격 기준과 열람 절차를 별도 법으로 정비하겠다고 밝혔다. 데이터의 바다 속에서 첨단 기술은 헌법의 보호망을 넘어 국민의 일거수일투족을 기록하지만, 헌법적 대응 논리와 권리 구제 장치는 찾기 어렵다.
세계 주요 규범은 개발촉진보다 "위험관리"를 최우선 가치로 삼고 있다. EU의 AI법은 고위험 AI에 문제 발생 시 원인을 추적하는 "자동로그화", 필요 시 즉시 긴급조치가 가능한 "휴먼 오버라이드", 의사결정 과정을 인간이 이해할 수 있는 형태로 제시하는 "설명가능성"을 의무화하고 생체 감시·사회적 신용시스템과 같은 기본권 침해형 기술은 원천 금지했다.
미국은 2023년 행정명령 14110호를 통해 거대 언어모델의 안전성 평가 결과를 정부에 사전 제출하도록 하고, 특히 국방 및 정보·수사용 AI 모델은 반드시 별도 등록제로 관리해 투명성을 강화시켰다. 이는 기업 경영 부문도 마찬가지다. 세계 최초 AI 경영 시스템 국제표준인 ISO/IEC 42001은 CEO가 이와 관련된 윤리헌장을 수립하고 위험평가와 사후 모니터링을 직접 책임지도록 요구했다. AI의 책임성을 재무감사 수준으로 끌어 올린 것이다.
이러한 추세는 학계도 마찬가지다. 인간중심 AI(HCAI) 모델로 인간에 의한 통제와 자동화의 효율을 동시에 달성하고 내부 알고리즘 감사 프레임워크로 개발부터 배포까지 전 주기의 책임 공백을 메워야 한다는 주장이 힘을 얻고 있다. 또한 AI의 사회적 영향과 기술의 권력 집중을 다루는 미국의 "AI Now 연구소"는 일반목적의 AI도 고위험 범주에 포함하라고 촉구했으며, AI가 정의·민주주의·인권을 약화시키지 않도록 감시하는 유럽의 "AlgorithmWatch"는 EU의 디지털서비스법(DSA) 체계 아래 시스템적 위험 감사 방법론을 구체화하며 규제 맹점을 보완하고 있다. 데이터가 곧 주권이 되는 시대에 기술 책임성이 인권·윤리·보안을 아우르는 단일 프레임으로 묶이고 있는 것이다.
우리 국회가 지난해 의결한 AI 기본법은 고위험·생성형 AI 영향평가 도입, 인공지능위 신설 등 의미 있는 발걸음을 뗐지만, 정보·수사기관의 AI 활용 감독, 금지 기술 명시, 시민 열람 및 이의권 보장은 시행령에 위임되어 규범적 공백이 남았다. 하위 법률만으로는 국제 사회가 요구하는 투명성과 책임성을 담보하기 어렵다. 따라서 헌법 개정이 불가피하며, 그 방향은 분명하다.
첫째, 제127조를 경제 장에서 기본권 장으로 이관해 "국가는 과학기술이 인간의 존엄·자유·안전·평등에 끼칠 영향을 최소화하고 공공복리에 기여하도록 정책을 수립·이행하여야 한다"는 조항을 신설해야 한다. 인간 중심 설계와 공공 가치 우선 원칙은 더 이상 거스르기 힘든 전세계가 공통적으로 강조하는 핵심 가치다. 둘째, 독립 헌법기관을 설치해 고위험 AI·디지털 감시·생체 정보 처리를 사전 영향평가·연례 감사하도록 해야 한다. 이는 "End-to-end" 감사와 "내부 감사 갭 해소"라는 국제 학계의 제안을 헌법적 틀로 제도화하자는 것이다. 이에 따른 평가보고서는 공개를 원칙으로 하고, 시민이 이해할 수 있도록 "설명가능성" 요건을 포함해야 한다. 이는 EU의 AI법, ISO/IEC 42001의 투명성과도 합치되는 것이다.
AI가 가져올 권력 재편은 이미 조용히, 그러나 신속하게 진행되고 있다. 개헌은 국회 3분의 2 동의와 국민투표라는 험로는 거쳐야 하므로 현실성이 낮다는 지적도 있다. 그러나 "디지털 기본권" 의제를 앞세운 초당적 개헌특위와 국민참여 공론화위원회를 가동하고, 개헌안 초안을 선공개해 단계별 합의, 즉 초안 마련·수정·투표 를 밟는다면 일정 관리가 불가능하지 않다.
국회 논의와 병행해 행정부는 AI 기본법·개인정보보호법 일부 개정을 통해 고위험 AI 사전등급제·독립감사 의무·과징금 체계를 우선 도입하고, 시행령으로 세부 절차를 테스트하는 병행 방식을 취해야 법률유보 원칙을 지킨다. 또한 국가 안보·수사 기밀은 가칭 "특수 AI 감독 특별법"을 별도 제정해 전문 보고서는 국회 정보위에 비공개로 제출, 요약본은 시민에게 공개하는 이중 보고 체계를 명문화해야 한다.
이렇듯 헌법 127조를 인간 중심 조항으로 개정하고 독립 감독 구조를 확립한다면, 한국은 위험을 통제하면서도 혁신을 가속하는 선순환을 주도할 수 있다. 과학기술을 인권·윤리·보안의 틀로 재배치하는 일, 그것이 초거대 AI 시대에 우리 헌법이 수행해야 할 역사적 과제다.
덧붙이는 글 | 이 글을 쓴 유도진씨는 극동대학교 해킹보안학과 교수입니다.
Copyright © 오마이뉴스. 무단전재 및 재배포 금지.
- 이재명 대통령의 '추측'에 싱가포르가 답하다
- 독일은 정말 '놀이공원'이 되어가고 있을까
- '케이팝 데몬 헌터스'에 매료돼 이것까지 해봤습니다
- 특검 출석한 '키맨', 채해병 질문에 "국군장병 자랑스럽다" 동문서답
- 집중호우만큼 무서운 '한밤의 망치', 지구가 이렇게 변한다
- 코스피 3000 돌파... 기쁜 날인데 개미는 배가 아프다
- 윤석열 재산 6억인데... 계엄 피해 '1인당 10만원 배상', 어떻게?
- [속보] 내란 특검, 이상민 전 장관 구속영장 청구
- "박형준 발언권 배려했어야" "국민 중심" 부산 타운홀, 엇갈린 반응
- 민주당 TF, 대북송금 사건 관련 검사들 고발키로
