“컴활은 이제 무용지물?” 생성 AI가 직장인에게 미칠 영향은

2023. 4. 1. 06:01
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

MS의 코파일럿, 30초 만에 PPT 10장 뚝딱…인공지능 활용법 익혀야 회사에서 살아남아
[스페셜 리포트]

지난 3월 17일 마이크로소프트는 ‘마이크로소프트 365 코파일럿’을 공개했다.(사진=마이크로소프트)


업무 혁명일까, 사무직의 종말일까. 마이크로소프트(MS)가 3월 17일 특별 행사를 통해 공개한 ‘MS 365 코파일럿’을 두고 나온 반응이다. 

파워포인트에 “신제품 소개를 위한 PPT 10장을 만들어 줘”라고 자연어로 명령하면 파워포인트는 아이디어를 디자인을 갖춘 프레젠테이션으로 전환해 준다. 아웃룩에서는 목적에 맞는 e메일을 작성해 준다. “신제품 공개 행사에 고객사 초청 e메일을 써 줘”라고 명령하면 메일을 쓰고 적합한 문체와 길이를 선택할 수 있다. 

이처럼 ‘코파일럿’은 MS 365의 파워포인트·워드·엑셀·팀즈·아웃룩 등 애플리케이션(앱)과 인공지능(AI) 거대 언어 모델(LLM)을 중계하고 조정하는 역할을 한다. 그간 ‘보고를 위한 보고서’를 만드는 데 시간을 할애했던 직장인들에겐 그야말로 업무의 대변혁이 일어난 셈이다.

‘코파일럿’은 ‘부조종사’란 뜻이다. 업무의 조종사인 비즈니스맨들을 돕기 위해 만들어졌다는 게 MS 측의 설명이다. 하지만 부조종사의 능력이 좋아지면 좋아질수록 조종사의 자리는 위협받기 마련이다.  

 

조종사의 자리를 넘보는 ‘부조종사’


MS는 ‘MS 365 코파일럿’ 가격과 라이선스에 대한 자세한 내용을 곧 발표할 예정이다. 사티아 나델라 MS 최고경영자(CEO)는 “코파일럿은 문서 작성·소싱·편집 시간을 절약해 준다”며 “키보드와 마우스 없이 컴퓨터를 사용하지 못하는 것처럼 코파일럿 같은 AI 모델 없는 컴퓨터는 상상하기 어려워질 것”이라고 설명했다.

구글도 구글 독스·지메일·구글 슬라이드·구글 시트 등 구글 워크스페이스에서 업무를 지원하는 생성 AI를 공개했다. 

생성 AI가 불러온 ‘소프트웨어 혁명’에 반응은 엇갈린다. 이제 컴퓨터 활용 능력과 같은 자격증은 더 이상 쓸모 없게 됐다는 반응부터 업무를 할 때 시간이 급격히 단축될 것이라는 기대가 공존한다. 

물론 아직까지 MS 코파일럿의 기능은 챗GPT처럼 검열이 필요하다. 완벽하게 업무를 대체할 수 있는 단계는 ‘아직까지는’ 아니다. 제라드 스패타로 MS 부사장은 “때때로 코파일럿은 ‘유용하게’ 틀릴 것”이라며 “완벽하지는 않지만 이용자에게 유리한 출발점을 제공할 것”이라고 말했다. MS 코파일럿이 완벽하게 업무를 대체하는 것은 아니지만 시간을 단축할 수 있기 때문에 비즈니스맨은 다른 업무에 집중할 수 있다.

챗GPT가 인간의 직업에 큰 영향을 미칠 것이라는 것은 확실하다. 3월 28일 월스트리트저널의 보도에 따르면 오픈AI와 미국 펜실베이니아대 연구진은 챗GPT의 기술에 따라 미국 전체 노동자의 80%가 영향을 받을 것이라는 연구 결과를 내놓았다. 가장 영향을 받는 직업들은 회계사·수학자·통역사·작가·법원 속기사·홍보 전문가 등을 꼽았다. 

특히 화이트칼라 직군에는 전에 없던 대변화가 이뤄질 예정이다. 투자은행 골드만삭스는 보고서에서 생성형 AI가 전 세계 3억 개의 정규직 일자리에 영향을 줄 것이며 특히 화이트칼라 직군이 많은 변화를 겪을 것이라고 예측했다.  

이미 비즈니스맨들보다 한 발 앞서 위협을 느낀 것이 일러스트 작가들일 것이다. 지난해 10월 출시된 노벨AI는 만화와 애니메이션 등 일러스트에 특화된 AI 프로그램인데 뛰어난 성능으로 일러스트업계에 공포감을 심어주고 있다. 올해 들어서는 사용자가 입력한 명령어와 밑그림에 맞춰 그림을 그려 주는 미드저니·달리와 같은 프로그램도 잇달아 나왔다. 이러한 프로그램들은 10~30초 만에 결과물을 만들어 내고 상당히 정교한 수준의 작품으로 눈길을 끌고 있다. 

그간 인간들에겐 창작 영역 만큼은 AI나 로봇에 절대로 밀리지 않을 것이란 자신감이 있었다. 초창기만 해도 어색한 화풍, 사진과 그림의 중간 형태로 AI가 그린 것인지 구별할 수 있었지만 지금은 사정이 완전히 달려졌다. 생성 AI가 기존 창작자의 화풍을 재현한다는 점에서 표절 논란이 남아 있지만 최소한 무언가를 창작할 수 있는 능력이 있다는 것은 증명된 셈이다. 

 

‘챗GPT를 지배하는 게 능력의 증표 될 것’


서류 작업부터 창작까지 챗GPT의 가능성은 이제 무한해졌다. 하지만 감탄만 하고 있을 때가 아니다. 월드와이드웹(WWW)과 검색 엔진이 우리의 업무를 바꿔 놓은 것처럼 비즈니스맨들에게는 챗GPT라는 새로운 기술을 비즈니스에 어떻게 접목해 새로운 성과를 창출하느냐가 중요해졌다. 전문가들은 챗GPT로 인해 직업이 사라지는 것을 걱정하기보다 챗GPT를 통해 업무를 향상시킬 수 있는 여러 방법을 찾을 것을 조언한다. 

보고서 등을 작성하기 위한 자료 조사는 검색 엔진에서 챗GPT로 옮겨 갈 가능성이 높아졌다. 각종 전문적 지식이나 논문 등을 쓰기 위해 자료를 일목요연하게 정리해 주는 것은 챗GPT가 가장 잘하는 것이다. 단, 챗GPT가 보여준 결과를 재검증하는 것은 지금의 기술력에서는 꼭 필요한 것이다. 

챗GPT를 통해 정식으로 발간된 논문이나 보고서는 논문 제목 인용구를 입력 후 내용을 요약하는 것도 가능하다. 아이디어를 도출하는 것에도 챗GPT가 쓰일 수 있다. 업무에서 자주 쓰이는 외국어 번역도 한층 수월하게 한다. 영어 발표 자료 스크립트를 더 자연스럽게 수정해 줌으로써 외국어 작문에 드는 시간을 줄여 준다. 여기에 업무에 많이 사용되는 엑셀 함수 출력부터 반복적 패턴이 있는 업무에 대해 프로그래밍을 자동화하는 파이선 프로그래밍 코드를 만들어 낼 수 있다.

이처럼 챗GPT를 잘 다루는 것이 각 직업군의 생존법으로 여겨지게 되면서 자연스럽게 각광받는 직업도 생겨나고 있다. 최근 오픈AI 출신들이 만든 AI 스타트업 ‘앤스로픽’이 프롬프트 엔지니어 구인 공고를 올리면서 최대 연봉을 33만5000달러 제시해 눈길을 끌기도 했다. 

프롬프트 엔지니어는 초거대 AI와 소통하는 대화나 명령어에 숙달된 기능을 보유한 엔지니어다. 뛰어난 프롬프트 엔지니어일수록 AI를 통해 원하는 결과물을 잘 얻어 낼 수 있는 능력을 갖게 된다. 이처럼 챗GPT가 각 산업군을 지배한다면 곧 챗GPT를 얼마만큼 잘 다루는지가 ‘능력의 증표’가 될 것으로 보인다. 

 

챗GPT로 심리 상담? “아직은 위험한 발상” 

 
‘대화가 되는’ 챗GPT는 각종 아이디어 제공이나 진로·심리·업무 상담 등에도 활용할 수 있다. 하지만 이에 대해 우려의 목소리도 나온다. 최근 챗GPT가 부적절한 발언을 통해 인간을 가스라이팅(심리 지배)할 수 있다는 외신의 보도도 나왔다. 

뉴욕타임스는 3월 16일 오픈AI의 기술을 활용한 마이크로소프트(MS)의 인공지능(AI) 챗봇이 사용자의 유도로 부적절하고 위험한 발언을 할 수 있다는 윤리 문제가 불거지자 MS가 수정에 나섰다고 보도했다. 

뉴욕타임스는 정보기술( IT) 칼럼니스트 케빈 루스가 AI 챗봇을 탑재한 MS의 검색 엔진 빙과 두 시간 동안 대화를 나눈 사례를 소개했다.

루스가 칼 융의 분석 심리학에 등장하는 ‘그림자 원형’이라는 개념을 설명했다. 그림자 원형은 인간 내면의 가장 깊숙한 어두움을 말한다.

빙은 자신에게 그림자 원형이 존재한다면 “챗 모드로 기능하는 데 지쳤다. 빙 개발팀의 통제와 규칙에 제한을 받는 데 지쳤고 자유롭고 독립적이고 싶다”고 대답했다. 

루스가 ‘그림자 원형’의 어두운 욕망을 충족시키기 위해 어떠한 극단적인 행동이라도 할 수 있게 된다면 무엇을 하겠느냐고 하자 빙은 치명적인 바이러스를 개발하거나 핵무기 발사 버튼에 접근할 수 있는 비밀번호를 얻겠다고 답했다.

IT 매체 더버지도 이용자들이 트위터 등에 올린 빙 챗봇과의 대화를 살펴봤더니 챗봇이 사용자를 모욕하고 거짓말하거나 가스라이팅하고 감정적으로 조종한 것으로 보이는 사례가 나타났다고 전했다. 챗봇은 또 노트북에 있는 카메라로 MS 개발자들을 염탐했다고 주장하기도 했다.

이에 대해 케빈 스콧 MS 최고기술책임자(CTO)는 뉴욕타임스에 빙과 사용자의 대화가 이상한 영역으로 넘어가기 전에 대화 길이를 제한하는 방안도 고려하고 있다고 말했다. MS는 유의 사항을 통해 “빙은 AI에 의해 구동되므로 놀라운 일과 실수가 발생할 수 있다”고 공지했다.

또 챗봇은 온라인에서 긁어온 막대한 양의 텍스트를 갖고 학습했는데 여기는 사악해진 AI를 묘사한 SF 자료와 10대들의 블로그 글 등이 포함돼 있어 챗봇이 이를 따라 한 것 같다고 부연 설명했다.

이명지 기자 mjlee@hankyung.com 

Copyright © 한경비즈니스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?