AI가 코드 짤 때 팀장은 뭐 하냐고?…그래도 리더는 필요하다 [인사이드아웃AI]
AI는 자율주행 돕지만 핸들 잡는 건 ‘리더’…방향 잃으면 공멸한다
(시사저널=고평석 (주)엑셈 대표)
《서울 자가에 대기업 다니는 김 부장 이야기》는 웹소설과 웹툰으로 인기를 끌어 드라마로 제작된 콘텐츠다. 웹툰 못지않게 드라마로도 큰 화제가 됐다. 중간관리자로서 임원 승진에 실패한 주인공 김 부장의 좌절과 극복 과정을 적나라하게 다뤘기 때문이다. 실제 올해 조직 내 리더 역할들의 퇴직 이야기가 수시로 뉴스에 오르내렸다. 특히 AI 발달로 인해 단순 반복 업무 종사자들이 1차 퇴출 대상이 됐고, 그다음이 중간관리자였다. AI로 인해 의사결정·보고 체계가 자동화되면서 중간에서 판단을 담당하던 리더의 역할이 애매해진 탓이다. MS 등 수많은 기업이 비슷한 선택을 했다. 인텔 CEO 립부 탄은 "조직의 복잡성을 없애고 엔지니어 직군에 힘을 실어주기 위해 관리자들을 줄이고 있다"고 말했다.

리더십, 결정이 아니라 '의미 부여'로 진화
"김 부장은 이제 필요 없을까?" 리더는 조직에서 '계륵' 같은 존재가 된 것일까? 데이터 플랫폼과 AI 시스템을 구축·도입하고 운영까지 해본 필자의 경험으로 보면 이런 시각은 절반만 맞다. AI는 확실히 효율을 높이는 도구로서 최고다. 그러나 조직과 현실은 데이터만으로 설명이 안 되는 영역이다. 수학 문제처럼 정답이 하나로 떨어지지 않는다. 수많은 변수가 얽히고 다양한 주체의 생각이 충돌한다. 물론 AI가 제일 잘하는 게 최적의 상태를 찾아내는 것이다. 그 점에선 인간이 AI를 당해낼 수 없다. 하지만 AI가 하면 구성원들이 따르기 부담스러워할 정당화와 방향 설정은 인간만이 할 수 있다.
효율을 최대치로 끌어올리는 AI도 넘볼 수 없는 영역이 있다. 바로 '책임'과 '의미 부여'다. AI는 최적의 답을 계산할 뿐, 그 답이 조직에 어떤 의미를 갖는지 설득하고 결과에 책임을 지는 건 결국 리더의 몫이다.
AI 시대, 리더십은 '지시'가 아닌 '조율'로 진화하고 있다. AI는 데이터를 분석해 최적의 경로를 제시한다. 그러나 최적의 경로끼리 충돌할 때 AI가 스스로 해결할 수 있을까? 비용을 줄이는 재무회계팀의 최적, 업무 효율을 높이는 개발팀의 최적, 그리고 널리 제품의 우수성을 알리는 마케팅팀의 최적이란 조건이 정반대일 수 있다. 즉, 부서 간 정반대 의견이 서로 최적이라는 명분으로 충돌할 수 있다. 이런 상황은 팀 간뿐 아니라 팀 내에서도 비일비재할 수 있다. 개인들끼리 생각하고 지향하는 최적이 다를 수 있기 때문이다. 이때 사람이 개입한 가치 판단과 의미 부여가 필요하다. 설득 과정일 수도 있고, 조직의 지향점을 상기시키는 과정일 수도 있다. 지금으로선 AI가 도저히 할 수 없는 역할이다.
그뿐만이 아니다. 많은 조직이 AI 도입 과정에서 가장 먼저 부닥치는 현실은 "AI 구축 후 바로 똑똑해질 줄 알았는데, 왜 별로지?"라는 의문이다. 이유는 단순하다. 데이터는 존재한다고 쓸 수 있는 게 아니라, 관리되고 정의돼야 쓸 수 있다. 데이터는 가치 중립적이다. 좋은 데이터와 필요한 데이터를 무엇으로 정의하고, 어떤 수준으로, 어떻게 확보하고 관리할지 결정하는 것은 인간, 특히 리더의 역할이다. 예를 들어 데이터 품질 개선, 거버넌스 구축, 표준화, 메타데이터 정비 같은 일은 당장 성과로 이어지지 않을 수 있다. 그래서 조직은 흔히 "그건 나중에!"를 외친다. 이때 리더의 역할이 결정적이다. "이건 비용이 아니라 자산"이라고 의미를 부여하고 그 의미가 조직 문화로 굳어지게 만드는 일은 AI가 대신할 수 없다. 계산의 영역이 아니기 때문이다. 결국 책임의 영역이다.
AI는 '결정'을 돕고, 리더는 '책임'을 진다
AI가 조직의 깊숙한 업무에 들어오면 어떤 일이 생길까? 리더의 역량 차이가 더 또렷해진다. 책임 소재가 더 확실해진다. 대다수 개발 중심 기업이 비슷한 경험을 하고 있다. 구성원 대부분이 프로그래머와 엔지니어인 조직에서 리더인 개발팀장 역할의 큰 축은 주니어 개발자의 코드 리뷰였다. 단순한 오류 검출이 아니라 설계 철학, 보안 감수성, 성능 트레이드오프를 가르치는 도제식 과정이다. 그런데 코파일럿, 클로드, 챗GPT, 러버블, 커서 같은 '바이브 코딩' 도구가 확산되면서 팀장의 일이 일부 자동화되기 시작했다. "AI가 코드도 리뷰하던데요?"라는 말이 나오고, 실제로 리뷰 속도는 빨라졌다.
어떤 리더는 AI를 개인이 알아서 쓰는 효율화 도구라고 여겼다. 팀원마다 프롬프트도 다르고 기준도 달라 결과물의 품질이 들쑥날쑥해졌다. 반면 어떤 리더는 AI를 팀 전체의 역량 강화 시스템으로 설계했다. 프롬프팅을 표준화하고, 리뷰 기준을 문서화하고, AI 결과물의 검증 루프를 만들고, 학습 문화를 정착시켰다. 같은 AI 도구를 쓰는데도 리더에 따라 팀 간 생산성과 문화가 달라졌다. 결국 AI가 리더 역할과 중요성을 도드라지게 만들었다. AI가 작업 중 중요한 역할을 했더라도 그 결과가 조직의 시스템과 고객 경험을 바꾸는 순간, 책임 주체는 도구가 아니라 승인한 리더다. AI는 책임의 주체가 될 수 없다.
AI 시대에 리더가 할 일이 없어지지 않는다. 역할이 전환된다. AI는 과거의 데이터를 기반으로 결정과 실행을 빠르게 한다. 하지만 무엇을 결정할지, 어떤 의미로 그러한 결정을 해야 하는지, 결정의 결과를 누가 감당할지는 기술이 아닌 인간 리더의 영역이다. 리더는 AI에게 결정 권한을 넘겨주고 사라지는 것이 아니라, AI가 만들어낸 선택지에 조직 가치를 투영해 의미를 부여하고 최종 책임을 진다.
과학 기술이 인류 역사를 여러 차례 변화시켰다. 국가 구조를 바꾸고 인구, 경제에도 큰 영향을 미쳤다. 과학 기술은 단순하다. 인류에게 속도와 편리함을 안겨주는 훌륭한 도구다. AI도 예외는 아니다. 인지, 판단, 행동을 한다고 해도 그 일의 목표와 목적은 인간 리더가 세운다. 데이터 기반의 업무는 효율적이다. 그러나 방향 설정은 효율의 영역이 아니다. 그 과정에서 구성원들과 소통하고 스킨십을 하며 이끌어가고 결과에 책임지는 것을 AI가 할 수 있을까? 질문을 던지고, 답을 선택하고, 책임지는 일. 그것은 앞으로도 인간 리더만이 할 수 있는 일이다.

Copyright © 시사저널. 무단전재 및 재배포 금지.
- [르포] ‘유튜버發’ 광장시장 바가지 요금 논란, 두 달 후인 지금도 문제 ‘여전’ - 시사저널
- 은밀함에 가려진 위험한 유혹 ‘조건만남’의 함정 [정락인의 사건 속으로] - 시사저널
- ‘가난과 질병’이 고독사 위험 키운다 - 시사저널
- “갈아탄 게 죄?”…‘착한 실손’이라던 4세대 보험료의 ‘배신’ - 시사저널
- 키가 작년보다 3cm 줄었다고?…노화 아닌 ‘척추 붕괴’ 신호 - 시사저널
- “너네 어머니 만나는 남자 누구냐”…살인범은 스무살 아들을 이용했다 [주목, 이 판결] - 시사
- 통일교부터 신천지까지…‘정교유착 의혹’ 수사 판 커진다 - 시사저널
- 오심으로 얼룩진 K리그···한국 축구 발목 잡는 ‘심판 자질’ 논란 - 시사저널
- 청소년 스마트폰 과다 사용, 건강 위험 신호 - 시사저널
- 기침, 언제 병원에 가야 할까 - 시사저널