[김정덕의 AI 시대 보안 패러다임-12] AI 시스템의 위험분석 방법, STPA
개발 단계에서 AI 안전을 설계하는 시스템적 접근법
[연재목차 Part 2. AI 시대 보안 패러다임]
1. AI 시대의 그림자, ‘딥페이크 사기’를 경계하라
2. AI 시대, 번아웃 관리
3. AI 편향과 공정성, 보안에서 무엇이 다른가
4. 설명가능 AI와 인간의 최종 판단
5. AI도 인간과 닮았다
6. AI, ‘안전’과 ‘보안’의 경계를 허물다
7. AI 도입의 딜레마_기회와 위험 사이
8. AI 위험에 대한 2개의 거버넌스
9. 챗봇을 넘어, ‘행동하는 AI’를 통제할 시간
10. AI 시대의 생존 방정식, ‘실행형’ 보안 거버넌스
11. AI 보안관리의 새로운 지평, AI-SPM의 이해와 도입 전략
12. AI 시스템의 새로운 위험분석 방법, STPA
13. 에이전트 AI 시대_인간 중심 통제 설계
14. AI와 인간의 동맹_협업모델
15. AI, 보안문화를 재정의하다
[보안뉴스= 김정덕 중앙대 산업보안학과 명예교수/인간중심보안포럼 의장] 인공지능(AI)이 산업 전반에 스며들며 혁신을 이끌고 있지만, 화려한 기술 이면에 도사린 ‘새로운 위험’을 우리는 완벽히 통제하고 있을까요?
기존 IT 시스템의 위험 분석은 주로 장비 오작동이나 소프트웨어 버그 같은 물리적·기능적 결함, 즉 ‘고장(Failure)’에 초점을 맞췄습니다. 하지만 생성형 AI의 위험은 다릅니다. 완벽하게 정상 작동하는 AI가 편향된 데이터를 학습하거나 해커의 교묘한 지시를 충실히 이행할 때 치명적인 사고가 발생합니다. 이는 개별 부품의 고장이 아닌 시스템 전체의 ‘통제 상실’ 문제입니다.

경험과 직관을 넘어선 구조적 분석 기법: STPA
과거 사례나 전문가의 직관에 의존하는 기존의 ‘시나리오 기반 위험 분석’은 이미 알고 있는 적을 방어하는 데는 유리하지만, 미지의 AI 위협 앞에서는 속수무책입니다. 새로운 대안으로 등장한 ‘시스템 이론적 프로세스 분석(STPA: System-Theoretic Process Analysis)’이 주목받고 있습니다.
STPA는 위험을 ‘부적절한 제어 구조(Control Structure)’의 문제로 보고, “시스템이 어떻게 스스로를 위험에 빠지는가?”라는 근본적인 질문에서 출발해 내부 상호작용을 분해하고 위험 경로를 추적합니다. 웹사이트에 숨겨진 악성 텍스트를 LLM이 읽고 내부 정보를 유출하는 ‘간접 프롬프트 인젝션’ 같은 복잡한 상황도 인간의 상상력이 아닌, STPA의 구조적·귀납적 분석을 통해서만 사전 도출이 가능합니다.
실무의 현실: ‘레드티밍’과 ‘체크리스트’를 넘어
현재 AI 개발 실무는 출시 전 모의 해킹으로 취약점을 찾는 ‘AI 레드티밍’이나 ‘OWASP Top 10 for LLM’ 같은 체크리스트에 크게 의존합니다. 이는 알려진 공격을 막는 데는 유용하지만, 복잡한 상호작용이 빚어내는 ‘미지의 오작동’을 원천 차단하기엔 역부족입니다. 위와 같은 알려진 취약점 체크리스트에 크게 의존하고 있습니다. 이러한 경험적이고 사후 대응적인 방식은 이미 알려진 공격 패턴을 막아내는 데는 매우 실용적입니다.
비행기나 자율주행차처럼 단 한 번의 오작동이 치명적 재앙으로 직결되는 분야의 국제 안전 표준(예: 자율주행차 안전 표준 ISO 21448 SOTIF)에서 STPA를 핵심 분석 기법으로 권장하는 이유가 바로 여기에 있습니다. 기업의 핵심 인프라와 의사결정이 점차 AI에 위임되는 지금, 기업의 AI 보안 역시 사후 땜질식 처방을 넘어 기획 단계부터의 근본적인 ‘안전 설계’로 진화해야만 합니다.
보안 특화 방법론 ‘STPA-Sec’과 하이브리드 전략
그럼에도 STPA 특유의 가파른 학습 곡선과 막대한 분석 시간은 기업 환경에서 여전히 높은 장벽입니다. 이를 극복하기 위한 실무적 돌파구가 바로 사이버 보안에 특화된 ‘STPA-Sec(STPA for Security)’ 방법론입니다. 이는 단순한 기계적 결함이나 안전을 넘어, 해커의 ‘악의적 통제’ 시나리오를 구조적으로 방어하는 데 집중하는 체계입니다.
모든 시스템에 이 무거운 분석을 적용할 필요는 없습니다. 일반적인 웹 UI나 DB 접근 구간은 기존의 OWASP 체크리스트로 빠르게 처리하고, LLM이 사내 핵심 시스템에 직접 명령을 내리는 ‘핵심 제어 루프(Critical Control Loop)’에만 STPA-Sec을 집중 적용하는 ‘하이브리드 전략’이 매우 효과적입니다. 비즈니스 속도를 늦추지 않으면서도 STPA의 강력한 보안성을 내재화할 수 있습니다.
현실적 역할 분담: 파운데이션 모델부터 자체 SLM까지
일반적으로 CISO의 역할이 운영 단계의 실시간 위협 모니터링(AI-SPM)이라면, 원천 모델을 설계하는 빅테크(개발사)의 책임은 기획 단계부터 STPA를 적용해 내재적 결함을 제거하는 것입니다.

AI 시스템의 안전과 보안은 운영 단계의 방화벽이나 사후 조치만으로 완성되지 않습니다. 설계 단계의 STPA(구조적 안전)와 운영 단계의 AI-SPM(실행 통제)이 톱니바퀴처럼 맞물려 돌아갈 때, 비로소 우리는 AI라는 강력한 도구를 온전히 통제할 수 있을 것입니다.
Copyright © 보안뉴스. 무단전재 및 재배포 금지.
- [김정덕의 AI 시대 보안 패러다임-12] AI 시스템의 위험분석 방법, STPA
- 협력하는 북한·러시아 공격자들... “韓-英 사이버 안보, 공동 대응·기술 협력 강화 必”
- 자바 기반 pac4j-jwt 인증 라이브러리서 CVSS 10점 취약점 발견... “공개키만으로 우회”
- [이슈칼럼] 가짜뉴스로 공포를 설계하는 사이버전, 인지전의 시대
- 아이폰 해킹한 ‘코루나’의 실체...23개 취약점 엮은 5단계 공격 사슬
- “MFA도 무용지물?” 스타킬러 피싱 키트 이용한 계정 탈취 공격 확산
- 설계 단계부터 AI 보안 내재화해야... 국정원, 해외 안보기관과 AI 공급망 위협 대응 방안 권고
- [배종찬의 보안 빅데이터] 이란이 무서워하는 건 미국 폭격 아닌 사이버 전술
- [국방보안 칼럼] AI를 검증하는 AI(Dual-AI Verification): 소버린 AI 시대의 새로운 국방 규격
- [카드뉴스] “3개월간 매일 밤 톡했는데 AI였다?”… 감정 노리는 ‘스티키 페르소나’ 주의보