생성형 AI 글, 아직 안 쓰세요?

백우진 글쟁이(주) 대표 2024. 9. 13. 10:25
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[리더의 글쓰기 원포인트 레슨]번역은 물론 자료 조사와 연설문·설문지 작성도 척척
[편집자주] 많은 리더가 말하기도 어렵지만, 글쓰기는 더 어렵다고 호소한다. 고난도 소통 수단인 글을 어떻게 써야 할까? 리더가 글을 통해 대외 커뮤니케이션을 하는 노하우를 구체적인 지침과 적절한 사례로 공유한다. <백우진의 글쓰기 도구상자>와 <일하는 문장들> 등 글쓰기 책을 쓴 백우진 글쟁이주식회사 대표가 연재한다. <편집자주>

▲백우진 글쟁이㈜ 대표
The BUCK STOPS here!(모든 책임은 내가 진다).’미국의 해리
트루먼 대통령이 재임 중 집무실 책상에 올려둔 팻말의 문장이다.

책임은 리더십에서 불가결한 요소다. 책임지는 리더라야 조직 안팎의 존경과 신뢰를 받을 수 있다. 책임 지는 리더와 책임을 회피하는 리더의 사례를 통해 이를 살펴보자.

애플의 최고경영자 팀 쿡은 제품에 결함이 드러나는 등 사건이 발생했을 때 책임을 회피하지 않고 적극적으로 대처했다. 2014년 애플의 iOS 8 업데이트에서 발생한 문제로 인해 사용자들이 불편을 겪었을 때, 쿡은 문제를 신속하게 인정하고 수정 패치를 제공해 문제를 해결했다. 이로써 고객의 신뢰를 조기에 회복할 수 있었다.

쿡은 애플의 모든 결정에 있어 투명성을 유지하고 직원들과 주주들에게 솔직하게 상황을 설명하려 노력해왔다. 예를 들어 애플의 공급망에서 발생하는 노동 착취 문제를 해결하기 위해 쿡은 애플이 공급망의 노동 환경을 개선하기 위해 다양한 노력을 기울이고 있음을 공개적으로 발표했다. 이는 그가 기업의 윤리적 책임까지도 최종적으로 지겠다는 의지를 드러낸 것이다.

여기서 이런 의문을 제기하는 독자가 계시리라. “이 코너의 주제는 글쓰기인데, 웬 사례로 본 리더십을 다루고 있지?” 정확한 지적이다. 위 두 문단이 글쓰기와 관련된 것은, 바로 생성형 인공지능(AI)이 쓴 글이어서다. 필자는 챗GPT에 트루먼 대통령의 팻말 문장을 제시하면서 ‘책임 지는 리더십의 모범을 보여주는 사례와 반면교사 사례를 달라’고 주문했다. 생성형 AI는 금세 팀 쿡 사례 등을 들었다. (위 두 문단은 AI의 문장을 일부, 아주 일부 다듬은 결과다.)

◇리더십 사례 챗GPT한테 물어봤더니
생성형 AI가 꺼낸 반면교사 사례 세 건은 다음과 같다.

예시 #1. 독일 폭스바겐(VW)이 디젤 엔진 차량의 배출가스 시험을 조작한 사실이 2015년에 드러나 큰 논란이 일었다. 이 사건은 ‘디젤 게이트(Dieselgate)’로 불렸고, 폭스바겐은 전 세계적으로 엄청난 비난과 법적 문제에 직면했다.당시 CEO 마틴 빈터콘은 처음에는 이 사건에 대해 몰랐다고 주장하며 엔지니어들과 중간 관리층에게 책임을 돌리려 했다. 빈터콘은 “이러한 부정행위가 발생한 것에 대해 매우 유감스럽게 생각하지만, 나는 이러한 일에 대해 전혀 알지 못했다”라고 말했다. 나중에 그는 사임했지만, 사건 초기 대응에서 책임을 부하 직원들에게 돌리려 했다는 비판을 받았다.예시 #2. 미국 웰스파고은행은 직원들이 고객들의 동의 없이 수백만 개의 가짜 계좌를 개설한 사실이 2016년에 발각되면서 큰 스캔들에 휘말렸다. 이는 직원들이 과도하게 설정된 판매 목표를 달성하기 위해 벌인 일이었다.당시 CEO 존 스텀프는 초기 대응에서 주로 중간 관리자들과 일선 직원들에게 책임을 돌리려 했다. 그는 청문회에서 “이러한 일이 일어난 것은 저희의 잘못된 인센티브 구조 때문”이라면서 “우리는 이를 바로잡기 위해 노력하고 있다”고 말했다. 다만 자신이 직접적인 책임을 지는 모습은 보이지 않았다. 결국 스텀프는 강한 비판을 받았고, 책임을 회피하려 했다는 이유로 사임하게 됐다.예시 #3.에너지 회사 엔론이 2001년 대규모 회계 부정 사건으로 파산했다. 엔론 경영진은 회사의 부채와 손실을 숨기기 위해 복잡한 회계 구조를 사용해왔다. 이 사실이 드러난 이후 엔론은 결국 파산하게 됐다.이 사건이 터졌을 때, 당시 CEO 제프리 스킬링과 회장 케네스 레이는 책임을 회피하려 했다. 그들은 회사의 회계 부정에 대해 자신들은 몰랐다고 주장하며, 주로 CFO였던 앤드류 패스투를 비롯한 다른 직원들에게 책임을 돌렸다. 스킬링은 청문회에서 “나는 몰랐습니다”라고 말했다.
◇사실 여부 등 감수는 필수
이처럼 생성형 AI는 당신이 쓰고자 하는 글의 주제에 해당하는 사례를 즉각 내놓는다. 다만 한 가지 반드시 유념할 측면과 그에 따라 거쳐야 할 작업이 있다. 생성형 AI가 쏟아내는 글의 내용 중 일부는 정확하지 않다.

따라서 사실을 확인하고 수정해야 한다. 예컨대 모범으로 제시된 팀 쿡의 사례를 보면, 그가 직접 나서서 문제를 인정했다는 뉘앙스로 읽힐 소지가 있다. 당시 애플의 대응은 신속했지만 쿡이 몸소 나서지는 않았다. 쿡은 앞서 2012년 iOS 6의 지도 서비스 품질에 대해 소비자들이 불만을 떠뜨렸을 때에는 직접 사과하면서 “당분간 구글 지도 등을 쓰라”고 말했다.

반면교사 예시 중 폭스바겐의 빈터콘이 ‘나는 몰랐다’는 식으로 발을 빼려는 태도를 보인 것은 사실인 듯하다. 당시 폭스바겐 그룹이 유튜브 채널에 올린 공식 사과 영상에 그 발언이 담겼다고 보도됐다.

웰스파고 사건을 전한 문단 중 ‘다만 자신이 직접적인 책임을 지는 모습은 보이지 않았다’는 사실과 다르다. 청문회의 문답을 보도한 기사에 따르면 스텀프는 “비윤리적이었다”면서 사과했고, “나는 비윤리적인 판매 관행 일체에 대해 전적인 책임을 인정한다”고 말했다.

엔론 건을 정리한 두 문단의 팩트 체크는 독자의 실습용으로 남겨둔다. 챗GPT는 “중요한 결정에서부터 위기 상황의 대응, 윤리적 책임에 이르기까지 모든 면에서 책임을 지고 기업을 이끌어가는 것은 기업의 리더로서 신뢰와 존경을 받을 수 있는 중요한 요소”라고 마무리했다.

어느 조직에서나 최종 의사결정권자나 경영진의 대외 활동이 중요하고, 대외 활동 중에는 강연이 있다. 연설문이나 이른바 ‘말씀자료’는 대외 소통의 품질과 전달력을 좌우한다. 연설문을 쓸 때에도 생성형 AI는 기본적으로 활용할 ‘비서’가 되고 있다.

◇연설문 초고도 깔끔하게 제시
필자는 최근 개인정보보호위원회의 보도자료 및 말씀자료 작성 특강을 앞두고 생성형 AI한테 강연 자료를 주문했다. 개인 정보 ‘보호’와 산업적인 ‘활용’이라는 두 목표를 동시에 조화롭게 추구해야 한다는 주제를 제시했다.

챗GPT가 내놓은 연설문은 다음과 같다. 생성형 AI의 문서 작성 능력을 생생히 보여주는 측면에서 원문 중 상당 부분을, 한 글자도 고치지 않은 상태로, 공유한다.
안녕하세요, 여러분.오늘 저는 매우 중요한 주제에 대해 이야기하고자 합니다. 그것은 바로 개인정보의 '보호'와 이를 관련 산업에서 '활용'하는 두 가지 목표를 조화롭게 추구하는 방법입니다.디지털 시대에 접어들면서 우리는 점점 더 많은 데이터를 생성하고, 공유하며, 활용하고 있습니다. 이 데이터는 개인의 일상생활, 건강, 금융 정보, 심지어 감정 상태까지 포함할 수 있습니다. 이러한 개인정보는 우리에게 더 나은 서비스를 제공하고, 삶을 편리하게 만드는 데 중요한 역할을 합니다. 그러나 동시에, 개인정보가 잘못 사용되거나 유출될 경우 개인의 사생활이 침해되고, 심각한 피해를 입을 수 있습니다. 따라서 개인정보의 보호는 그 어느 때보다 중요합니다.하지만 이와 동시에, 개인정보의 '활용' 역시 무시할 수 없는 중요한 과제입니다. 데이터는 21세기의 새로운 자원으로 불리며, 이를 기반으로 한 산업은 빠르게 성장하고 있습니다. 의료, 금융, 교육, 마케팅 등 다양한 분야에서 데이터는 혁신을 이끌고 있으며, 더 나은 제품과 서비스를 개발하는 데 핵심적인 역할을 하고 있습니다.이렇듯 개인정보의 활용은 개인과 사회 모두에게 많은 이익을 가져다줄 수 있습니다.그러나 이러한 이익을 극대화하기 위해서는 두 가지 목표, 즉 개인정보의 보호와 활용이 조화를 이루어야 합니다. 개인정보 보호를 너무 강조하면 데이터의 활용 가능성이 제한될 수 있고, 반대로 개인정보 활용에만 치중하다 보면 개인의 사생활과 권리가 침해될 수 있습니다. (중략) 이러한 균형을 이루기 위해서는 법적, 기술적, 윤리적 측면에서의 노력이 필요합니다. 법적으로는 개인정보 보호법과 데이터 활용 관련 법규가 명확하게 규정되고, 엄격하게 집행되어야 합니다. 기술적으로는 데이터 보호를 위한 새로운 기술이 지속적으로 개발되고 적용되어야 하며, 윤리적으로는 개인의 권리와 사회적 이익 간의 균형을 고려한 의사결정이 이루어져야 합니다. (중략) 여러분의 지속적인 관심과 노력이 이러한 균형을 이루는 데 큰 도움이 될 것입니다.감사합니다.
한 활자매체 간부는 생성형 AI를 설문조사 질문지 작성에 활용한다고 들려줬다. 주제를 주고 질문지를 뽑아보라고 하면 완성도 높은 결과를 내놓는다고 말했다.

전문 번역자가 아닌 직장인도 업무상 번역할 일을 마주친다. 그럴 때면 주저없이 생성형 AI한테 일을 맡겨도 된다. 번역 업무에는 이미 생성형 AI가 깊숙하고 넓게 들어왔다. 인공지능은 높은 수준의 번역 완성도를 보인다. 간혹 사람이 덜 하는 실수를 저지르긴 하지만, 이는 사람이 감수(監修)할 부분이다.

번역을 잘한다는 사례를 하나 공유한다. 이전까지 번역의 장벽으로 여겨졌던 문장 요소가 대명사였다. 다음 문장의 번역은 충실하지 않았다.

[원문] A dog does so by manipulating its human owner such that they’d do anything for it.

[번역] 개는 인간을 위해 무엇이든 할 수 있도록 주인을 조작하여 그렇게 합니다.

요즘에는 ‘개는 주인을 조종해서 자신을 위해 뭐든지 하도록 만듭니다’라고 정확히 번역한다.

컴퓨터는 계산과 데이터 처리에서 시작해 점차 영역을 확장해왔다. 이제 인공지능이라고 불리는 기능을 수행한다. 인공지능을 잘 다루는 리더가 일을 더 잘할 수 있다.

▶본 기사는 입법국정전문지 더리더(the Leader) 9월호에 실린 기사입니다.

백우진 글쟁이(주) 대표

Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?