AI 실업에, 바이브 코딩에, 가만히 있을 순 없지

대전·김연희 기자 2025. 7. 29. 07:40
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능이 평범한 지적 노동에서 모든 인간을 대체할 것이라는 아찔한 전망이 나온다. AI 연구자이자 활동가인 신민기씨는 “민주적 통제와 사회적 제어를 논할 때”라고 말한다.
신민기씨는 대학과 대학원에서 인공지능 관련 공부를 한 연구자이자 정당 활동을 하는 AI 활동가이다. ⓒ시사IN 이명익

신민기씨는 카이스트 전산학부에서 학사와 석사를 마친 AI 연구자이다. 2024년 카이스트 졸업식장에서 발생한 일명 ‘카이스트 입틀막 사건’의 당사자로 고초와 유명세를 동시에 겪었다. 사실 데이터 액티비스트로서 그의 활약은 이보다 오래되었다. 2022년 이준석 당시 국민의힘 대표가 전국장애인차별철폐연대(전장연)의 출근길 지하철 시위를 비난하는 발언을 한 뒤 온라인상에 혐오 표현이 증가했다는 사실을 입증해 주목받았던 ‘익명의 데이터 분석가’가 바로 신민기씨다.

대학원을 졸업한 뒤에는 개발자로서 AI 시장과 산업을 직접 경험했다. 지난 6·3 대선에서는 민주노동당 부대변인으로 활동하며 AI 대선 공약을 준비했다. AI에 대한 ‘민주적 통제’ ‘노동자, 창작자, 시민의 권리 보호’ ‘데이터센터의 정의로운 대전환’ 등을 골자로 하는 민주노동당의 인공지능 정책은 ‘AI 하입(AI Hype·인공지능 열풍)’ 속에서 한국 사회가 놓치고 있는 것들을 가리킨다. 7월4일 대전에서 신민기씨를 만났다. 그는 “인공지능의 발전과 산업을 좋은 방향으로 이끌기 위해 사회적 제어에 대해 얘기해야 할 때”라고 말했다.

2022년 4월, 이준석 당시 국민의힘 대표와 박경석 전장연 대표의 TV 토론 하루 전날, 혐오 댓글 빈도수의 변화를 분석한 그래프가 X(구 트위터)에 올라왔다(〈그림〉 참조). 이 그래프를 제작한 익명의 데이터 분석가가 본인이라는 사실을 최근에야 밝혔다.

전장연과 인연이 있었던 것은 아니다. 당시, 이준석 대표는 전장연 지하철 시위를 두고 했던 발언(‘시민을 볼모로 삼은 투쟁을 중단하라’ 등)이 혐오 표현이 아니라고 주장했다. 그 무렵 한 인터뷰에서 홍성수 교수(숙명여대 법학부)가 ‘이준석의 발언이 혐오 표현이냐에 매달리기보다는 그의 발언이 혐오 표현을 확산시켰다는 걸 실증적으로 보여주면 된다’고 말씀하신 걸 봤다. 이건 내가 해볼 수 있겠다 싶었다. TV 토론회 바로 전날 작업을 시작해 12시간 정도 걸렸다.

신민기씨가 2022년 4월 제작한 전국장애인차별철폐연대 관련 에펨코리아 게시판 댓글 분석 그래프. ⓒ신민기

혐오 표현 판별 AI를 이용했다고 들었다. 구체적으로 어떻게 분석을 한 건가?

우선은 에펨코리아 유머 게시판(2030 남성 이용자 중심의 온라인 커뮤니티)에서 전장연이 지하철 시위를 시작한 시점(2021년 12월)부터 TV 토론회 직전까지 ‘장애’ ‘전장연’ ‘지하철’ ‘휠체어’ ‘엘리베이터’ 등으로 검색을 해서 나오는 게시물과 거기에 달린 댓글을 수집했다. 스크랩하는 데에는 제가 직접 코드를 짠 프로그램을 이용했다. 기간이 4개월 정도 되었고 댓글은 하루 평균 300~500개 사이였다. 이렇게 스크랩한 댓글을 ‘언더스코어’라는 팀에서 오픈소스로 공개한 혐오 표현 판별 AI인 ‘헤이트스코어(Hate Score)’에 넣고 혐오 표현을 분류하도록 했다. 그 뒤 이준석 대표의 발언 전과 후를 비교해 악플과 혐오 표현이 늘어난 것을 확인할 수 있었다.

인공지능이 공론장의 건강한 논의에 기여하는 쪽으로 사용된 사례 같다.

그렇게 볼 수 있다. 하루 평균 300~500개 댓글이면 전체적으로는 대략 5만 개가 된다. AI라는 툴이 아니라면 하룻밤 사이에 그걸 분석하고 그래프까지 그릴 수는 없었다.

‘AI 윤리 레터’의 필진으로도 활동하고 있다.

인공지능 연구자, 개발자부터 인문학 쪽 연구자들까지 7~8명이 참여하고 있다. 소위 ‘AI 하입’이라고 하는 열광적인 분위기에 묻혀서 얘기되지 않는 부분들을 조명해야겠다는 문제의식으로 출발한 프로젝트이다. 현재 빅테크들이 AI 산업을 주도하고 있는데, 정부가 균형 있는 역할을 하지 못하고 끌려가는 모양새다. 그 외에도 데이터 권리, 저작권, 노동, 환경, 그리고 민주주의 등과 관련된 문제를 AI 윤리 레터에서 다루고 있다.

인공지능과 민주주의 관련해서는 어떤 우려가 나오나?

딥페이크 기술을 악용해 가짜뉴스를 생산하는 문제의 위험성이 갈수록 커지고 있다. 여론조작도 용이해진다. 극소수만 가지고 있는 의견임에도, 극우 혐오 커뮤니티에서 AI를 활용해 그런 여론이 대세인 것처럼 둔갑시킬 수 있다. ‘외국인 혐오를 조장하는 댓글을 써줘’라고 인공지능에게 지시해 교묘하게 사람들을 선동하는 글을 생성할 수 있는 세상이다. 또 한편으로 의도하든 하지 않든, AI가 편견과 차별을 강화하는 측면이 있다. 인공지능은 주류나 평균에 수렴하는 답변을 내놓기 때문에, 섬세하게 관심을 기울이지 않으면 소수자 인권을 침해하는 편향을 일으킬 수 있다.

우려는 크지만 진지하게 논의되지 못하는 문제 중 하나가 인공지능에 의한 일자리 대체, ‘AI 실업’이다. 가장 크게 영향을 받는 직군 중 하나가 개발자이다.

의견이 갈리지만 업계에서도 ‘이제 신입 개발자는 더 뽑을 필요가 없는 것 아니냐’는 말이 나온다. 아무래도 신입 개발자들은 숙련도나 시스템 전체에 대한 이해가 낮아 대체될 여지가 상대적으로 큰 것 같다. 기존에는 AI를 이용해 소프트웨어를 만들더라도 작은 단위의 질문, 답변만 가능했다. 그러나 지금은 AI에게 ‘어떤 소프트웨어를 만들고 싶어’라고 얘기하면 거기에 필요한 코드, 그걸 테스트하기 위한 코드, 그 소프트웨어가 돌아가기 위한 환경을 조성하는 코드, 제품 테스트를 수행하는 코드까지 전부 작성해준다. 소프트웨어 개발의 모든 과정을 AI가 대신하는 것이다. 이런 인공지능 서비스가 올해 본격적으로 상용화되었다. 벌써 ‘바이브 코딩(Vibe Coding)’이라는 용어가 생길 정도로 개발자 업계와 문화를 빠르게 바꾸고 있다.

바이브 코딩이 뭔가?

‘바이브(vibe·분위기)에 맡긴다’라는 말이 있지 않나. 그것처럼 개발자가 프로그래밍 언어로 쓰는 부분은 최소화하고 AI에게 흘러가는 대로 맡긴다는 뜻이다.

‘데이터 라벨링’은 인공지능 산업으로 인해 새로이 생겨나는 일자리다.

아까 말씀드린 것 같은 ‘혐오 표현 분류 AI’를 만들려면, 우선 AI에게 어떤 게 혐오 표현이고, 어떤 게 아닌지를 가르쳐야 한다. 데이터 하나하나마다 ‘혐오 표현이다’ ‘아니다’ 라벨을 달아주는 사람들을 ‘데이터 라벨러’라고 한다. 2023년에 오픈AI가 챗지피티 대화의 유해한 표현들을 걸러내기 위해 케냐의 노동자들에게 저임금으로 아웃소싱 주었는데, 그 노동자들이 정신적 트라우마를 겪는다는 뉴스가 화제가 되었다. 이들이 한 작업이 ‘데이터 라벨링’이다. 꼭 혐오 표현만 가려내는 것은 아니고, 사진에서 ‘횡단보도를 찾으세요’ ‘버스를 찾으세요’ 같은 작업을 인공지능이 수행할 수 있도록 키워드를 다는 것도 데이터 라벨링의 일종이다.

인공지능은 프로그램 개발업계와 문화를 급속도로 바꾸고 있다.ⓒ연합뉴스

인공지능이라고 하면 최첨단 기술처럼 들리는데 그 밑바탕에는 인간의 엄청난 수작업이 있었던 셈이다.

한국에서도 이 일을 하는 사람들이 점점 더 많아지고, 이분들을 위한 커뮤니티도 따로 생기고 있다. 앞서 트라우마 문제가 지적되었지만 불안정한 플랫폼 노동이라는 것도 큰 문제이다. 인공지능 개발회사로부터 데이터 라벨링 일감을 외주 받는 큰 플랫폼 업체가 국내에도 있다. 데이터 라벨러들은 이런 업체들과 계약을 맺고 프리랜서로 일한다. 일감이 규칙적으로 있는 것도 아니고, 먼저 잡는 사람이 임자라 경쟁 압박에도 노출된다.

‘인공지능의 대부’로 불리는 제프리 힌턴 토론토 대학 교수는 얼마 전 한 인터뷰에서 “평범한 지적 노동에서 AI가 모든 사람을 대체할 것”이라고 전망했다. 어떻게 생각하나?

상당한 규모의 실업을 피하기 어려울 거라고 본다. 낙관론을 펴시는 분들은 ‘AI가 새로운 일자리도 만들어낼 것’이라고 얘기하지만 저는 회의적이다. 예를 들어, 자동차가 개발돼 마부들이 일자리를 잃었지만 기사라는 직업이 생겨서 신규 고용을 창출하는 효과가 있었다. 그러나 인공지능은 과거의 기술전환과 속도 면에서 큰 차이가 있다. 굉장히 빠른 속도로 새로운 분야들을 대체해나가고 있다. 한 산업에서 실직한 사람들을 다른 산업에서 흡수하는 시장의 조정이 일어날 시간이 확보되지 않는다.

다만, 지금 벌어지고 있는 AI 실업의 경향은 꼭 AI의 발전 속도 때문만은 아니라고 생각한다. AI가 사람의 노동을 완벽하게 대체할 수 있는 수준은 아직 아니다. 대신 AI 기술 도입이 인력을 축소해서 비용을 절감하는 데에 그럴듯한 명분이 되는 것이다.

매우 두려운 전망인데, 어떻게 대비해야 한다고 보나?

사회와 정부가 나서야 한다. 첫 번째로 실업 자체가 정말 타당한지 따져봐야 한다. 정리해고를 할 때도 지켜야 하는 조건이 있는 것처럼, 인공지능 기술로의 전환이라는 이유로 인력 대체를 무조건적으로 수용해서는 안 된다. 두 번째, 그럼에도 불구하고 실업이 발생할 수밖에 없는 분야가 있다. 거기에 대비해 새로운 일자리를 만들어내는 역할도 정부가 해야 한다. 속도와 규모가 다르기 때문에 과거처럼 시장에서 자연스럽게 해결될 것을 기대할 수 없다. 전략적 개입이 필요하다. 마지막으로는, 실업의 충격을 줄일 수 있도록 사회보장 제도를 적극적으로 확충해야 한다.

앞으로 계획이 궁금하다.

다소 비판적으로 말씀을 드렸지만, 잘 활용한다면 인공지능은 우리 삶을 윤택하게 만들 수 있는 기술이다. 그러나 AI 산업 육성만을 외치면서 규제완화, 투자 확대 일변도로 정책이 추진된다면, 이미 현실로 나타나고 있는 여러 우려와 문제점은 갈수록 심화될 것이다. 인공지능이 사회, 민주주의, 환경, 노동, 인권 등에 끼치는 영향에 대해 숙고하고 실질적인 답을 내야 하는 시점에 와 있다. AI가 생산한 가치와 부를 사회적으로 어떻게 환원할지에 관한 논의도 필요하다. 시민사회가 제대로 목소리를 낼 수 있도록 AI 전문가로서, 활동가로서 역할을 하고 싶다.

※8월12일 오후 2시 서울 중구 페럼타워 페럼홀에서 2025 〈시사IN〉 인공지능 콘퍼런스가 열립니다. 신민기씨는 ‘인공지능의 사회적 영향, 그리고 인간의 제어’라는 주제로 발표합니다. 참가 신청: saic.sisain.co.kr

대전·김연희 기자 uni@sisain.co.kr

▶읽기근육을 키우는 가장 좋은 습관 [시사IN 구독]
▶좋은 뉴스는 독자가 만듭니다 [시사IN 후원]
©시사IN, 무단전재 및 재배포 금지

Copyright © 시사IN. 무단전재 및 재배포 금지.