[주장] 초거대 AI 시대, 헌법 127조를 "인간중심 과학기술"로 재설계해야

유도진 2025. 7. 28. 14:12
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[유도진 기자]

 초거대 AI 시대에 우리 헌법이 수행해야 할 역사적 과제는?
ⓒ omilaev on Unsplash
산업화의 막바지이던 1987년, 개정헌법에 포함되었던 제127조는 "국가는 과학기술로 국민경제 발전에 노력해야 한다"라는 단문으로 과학기술의 위상을 정의했다. 압축 성장이 정점을 지나던 당시에는 과학기술을 경제 성장의 엔진으로 보는 시각이 지배적이었을 것이다. 그러나 초거대 AI와 전방위적 디지털 감시가 일상이 된 2025년의 오늘, 이 조항은 과학기술을 경제수단으로만 한정하며 우리 국민의 존엄·자유·안전·평등을 위협할 수 있는 부작용과 이에 대한 국가 책임을 규정하지 못하고 있다.

우려는 현실이 되고 있다. 지난 23일 대한민국 정책브리핑에 따르면 경찰청은 2029년까지 보디캠 1만 4000대를 도입한다고 한다. 지방자치단체들은 통합관제센터를 AI 얼굴 인식 기반으로 고도화하고, 개인정보위는 관제 인력 자격 기준과 열람 절차를 별도 법으로 정비하겠다고 밝혔다. 데이터의 바다 속에서 첨단 기술은 헌법의 보호망을 넘어 국민의 일거수일투족을 기록하지만, 헌법적 대응 논리와 권리 구제 장치는 찾기 어렵다.

세계 주요 규범은 개발촉진보다 "위험관리"를 최우선 가치로 삼고 있다. EU의 AI법은 고위험 AI에 문제 발생 시 원인을 추적하는 "자동로그화", 필요 시 즉시 긴급조치가 가능한 "휴먼 오버라이드", 의사결정 과정을 인간이 이해할 수 있는 형태로 제시하는 "설명가능성"을 의무화하고 생체 감시·사회적 신용시스템과 같은 기본권 침해형 기술은 원천 금지했다.

미국은 2023년 행정명령 14110호를 통해 거대 언어모델의 안전성 평가 결과를 정부에 사전 제출하도록 하고, 특히 국방 및 정보·수사용 AI 모델은 반드시 별도 등록제로 관리해 투명성을 강화시켰다. 이는 기업 경영 부문도 마찬가지다. 세계 최초 AI 경영 시스템 국제표준인 ISO/IEC 42001은 CEO가 이와 관련된 윤리헌장을 수립하고 위험평가와 사후 모니터링을 직접 책임지도록 요구했다. AI의 책임성을 재무감사 수준으로 끌어 올린 것이다.

이러한 추세는 학계도 마찬가지다. 인간중심 AI(HCAI) 모델로 인간에 의한 통제와 자동화의 효율을 동시에 달성하고 내부 알고리즘 감사 프레임워크로 개발부터 배포까지 전 주기의 책임 공백을 메워야 한다는 주장이 힘을 얻고 있다. 또한 AI의 사회적 영향과 기술의 권력 집중을 다루는 미국의 "AI Now 연구소"는 일반목적의 AI도 고위험 범주에 포함하라고 촉구했으며, AI가 정의·민주주의·인권을 약화시키지 않도록 감시하는 유럽의 "AlgorithmWatch"는 EU의 디지털서비스법(DSA) 체계 아래 시스템적 위험 감사 방법론을 구체화하며 규제 맹점을 보완하고 있다. 데이터가 곧 주권이 되는 시대에 기술 책임성이 인권·윤리·보안을 아우르는 단일 프레임으로 묶이고 있는 것이다.

우리 국회가 지난해 의결한 AI 기본법은 고위험·생성형 AI 영향평가 도입, 인공지능위 신설 등 의미 있는 발걸음을 뗐지만, 정보·수사기관의 AI 활용 감독, 금지 기술 명시, 시민 열람 및 이의권 보장은 시행령에 위임되어 규범적 공백이 남았다. 하위 법률만으로는 국제 사회가 요구하는 투명성과 책임성을 담보하기 어렵다. 따라서 헌법 개정이 불가피하며, 그 방향은 분명하다.

첫째, 제127조를 경제 장에서 기본권 장으로 이관해 "국가는 과학기술이 인간의 존엄·자유·안전·평등에 끼칠 영향을 최소화하고 공공복리에 기여하도록 정책을 수립·이행하여야 한다"는 조항을 신설해야 한다. 인간 중심 설계와 공공 가치 우선 원칙은 더 이상 거스르기 힘든 전세계가 공통적으로 강조하는 핵심 가치다. 둘째, 독립 헌법기관을 설치해 고위험 AI·디지털 감시·생체 정보 처리를 사전 영향평가·연례 감사하도록 해야 한다. 이는 "End-to-end" 감사와 "내부 감사 갭 해소"라는 국제 학계의 제안을 헌법적 틀로 제도화하자는 것이다. 이에 따른 평가보고서는 공개를 원칙으로 하고, 시민이 이해할 수 있도록 "설명가능성" 요건을 포함해야 한다. 이는 EU의 AI법, ISO/IEC 42001의 투명성과도 합치되는 것이다.

AI가 가져올 권력 재편은 이미 조용히, 그러나 신속하게 진행되고 있다. 개헌은 국회 3분의 2 동의와 국민투표라는 험로는 거쳐야 하므로 현실성이 낮다는 지적도 있다. 그러나 "디지털 기본권" 의제를 앞세운 초당적 개헌특위와 국민참여 공론화위원회를 가동하고, 개헌안 초안을 선공개해 단계별 합의, 즉 초안 마련·수정·투표 를 밟는다면 일정 관리가 불가능하지 않다.

국회 논의와 병행해 행정부는 AI 기본법·개인정보보호법 일부 개정을 통해 고위험 AI 사전등급제·독립감사 의무·과징금 체계를 우선 도입하고, 시행령으로 세부 절차를 테스트하는 병행 방식을 취해야 법률유보 원칙을 지킨다. 또한 국가 안보·수사 기밀은 가칭 "특수 AI 감독 특별법"을 별도 제정해 전문 보고서는 국회 정보위에 비공개로 제출, 요약본은 시민에게 공개하는 이중 보고 체계를 명문화해야 한다.

이렇듯 헌법 127조를 인간 중심 조항으로 개정하고 독립 감독 구조를 확립한다면, 한국은 위험을 통제하면서도 혁신을 가속하는 선순환을 주도할 수 있다. 과학기술을 인권·윤리·보안의 틀로 재배치하는 일, 그것이 초거대 AI 시대에 우리 헌법이 수행해야 할 역사적 과제다.

덧붙이는 글 | 이 글을 쓴 유도진씨는 극동대학교 해킹보안학과 교수입니다.

Copyright © 오마이뉴스. 무단전재 및 재배포 금지.