AI에 글쓰기 맡길 때, 이렇게 하면 큰일 납니다
[이주영 기자]
| ▲ AI에게 글쓰기 맡길 때, 이것 놓치면 큰일 납니다 챗GPT나 제미나이 같은 인공지능(AI)를 활용하되 오류를 줄이고 나만의 경험과 생각을 살려 글을 쓸 방법이 없을까요? 지난 몇 개월 간 편집기자로서 여러 가지 도구를 써가며 실험했고, 완벽하진 않지만 글쓰기에 AI를 최대한 '안전하게' 활용하는 노하우를 아주 조금은 터득했습니다. 그 결과를 여러분과 공유해보려 합니다. (*이 영상은 인공지능 도구를 활용해 제작했습니다.) ⓒ 이주영 |
오마이뉴스에서 편집기자로 일하고 있습니다. 시민기자들이 보내주시는 기사를 검토하고 편집하는 게 주 업무인데요. 지난 여름부터였을 겁니다. 본문을 읽다가 멈칫하는 순간들이 있었습니다.
'기자님 글 스타일이 달라지셨네?'
'이 문체, 어디서 많이 봤는데...'
궁금함이 커져가던 어느 날, 조심스럽게 여쭤봤습니다.
"혹시 기사 쓸 때 챗GPT를 활용하시나요?"
|
|
| ▲ 한국언론진흥재단 미디어연구센터 온라인 설문조사 중 '생성형 AI로 사용한 기능' 답변 결과 |
| ⓒ 이주영 |
AI를 잘 활용하면 혼자 일할 때보다 훨씬 풍부한 결과를 만들 수 있다고들 합니다. 글쓰기도 마찬가지겠죠. 그런데 간혹 시민기자가 AI를 활용해 쓴 칼럼이나 에세이를 정식 기사로 채택하지 못할 때가 있습니다. 내용이 정확하지 않거나 시의성 있는 정보·관점·통찰·해석·이야기 등이 없으면 화려한 미사여구나 맞춤법에 맞는 문장을 구사했다 할지라도 정식 기사로 채택할 수 없습니다. 저희는 새롭고 정확한 소식을 전하는 언론이니까요.
특히 AI의 이른바 '환각(hallucination)' 오류로 인한 거짓 결과는 언론의 신뢰도에 치명적인 영향을 미치기에 더욱 조심스럽습니다. 정확하지 않은 정보가 담긴 기사를 내보내면, 그 피해는 고스란히 독자들의 몫이 되기 때문입니다.
AI를 활용하되 오류를 줄이고 나만의 경험과 생각을 살려 글을 쓸 방법이 없을까요? 지난 몇 개월 간 편집기자로서 여러 가지 도구를 써가며 실험했고, 완벽하진 않지만 글쓰기에 AI를 최대한 '안전하게' 활용하는 노하우를 아주 조금은 터득했습니다. 그 결과를 여러분과 공유해보려 합니다.
[이것만큼은 하지 말자 ①] AI가 제시한 근거를 검증 없이 믿기
글 좀 쓴다는 이들은 하나같이 '퇴고'를 강조합니다. 내가 작성한 글을 읽어보며 논지 전개가 매끄러운지, 틀린 사실은 없는지, 문장이 물 흐르듯 이어지는지 스스로 점검하는 과정을 뜻합니다.
여러분도 아시다시피 AI도 틀릴 때가 있습니다. 그러므로 챗GPT 등에 맡겨서 쓰거나 다듬은 결과물도 발행하거나 어딘가에 보내기 전에 사람의 힘으로 직접 '검증'해야 합니다. 그렇다면 무엇을 확인해야 할까요?
|
|
| ▲ 생성형 AI가 작성한 칼럼 <스마트폰에서 아이들의 뇌를 구하라> 초안 일부. 사실관계가 틀린 부분이 있다. |
| ⓒ 이주영 |
제미나이는 2021년 5월 발간된 <21세기 독자: 디지털 세상에서의 문해력 개발(21st-Century Readers: Developing Literacy Skills in a Digital World)> 보고서의 '제3장. 학습 기회 : 교육 실천과 디지털 읽기(Chapter 3. Opportunity to learn: Education practices and digital reading)' 부분을 보면 관련 서술이 나온다며, "수업 시간에 디지털 기기를 사용하는 시간이 길어질수록(high use), 읽기 성적은 하락했다"는 영어 원문을 제시했습니다.
|
|
| ▲ BBC-EBU AI 연구(4개 AI 서비스의 무료/일반 사용자 버전에서 '핵심' 질문에 대한 응답 분석 결과) 중 AI 응답’ 중대한 오류' 비율. |
| ⓒ 이주영 |
따라서 AI 응답으로 얻은 논거나 자료, 인용문은 꼭 원문이나 언론 보도 등을 확인해보는 게 안전합니다. 하다 못해 AI에게 '제시한 근거의 출처를 알려달라'라고 물어야 합니다.
[이것만큼은 하지 말자 ②] AI가 쓰거나 고쳐준 글을 확인 없이 내보내기
둘째, 직접 쓴 초고의 문장을 다듬어달라고 하거나 특정 용도의 글로 바꿔달라고 요청할 때도 조심해야 합니다. 글을 고치는 과정에서 다른 사람의 발언을 지나치게 윤문하다가 왜곡되는 경우가 있기 때문입니다.
|
|
| ▲ 생성형 AI가 작성한 기사 <이 대통령 "흡수통일은 통일 아냐, 평화적 방식이어야"> 초안 일부. 파란색 표시된 문장들은 발언이 왜곡된 부분을 바로잡은 내용이다. |
| ⓒ 이주영 |
어딘가 유사하고 취지 또한 비슷하지만, 너무 축약한 나머지 맥락이 틀어졌습니다. 발언을 인용할 때는 최대한 그대로 옮겨와야 합니다. 발언자의 어감과 의도가 왜곡되면 안 되기 때문입니다.
이처럼 인터뷰나 발언 인용이 들어간 기사, 칼럼, 에세이에 AI를 활용할 때는 '큰따옴표로 인용한 발언은 최대한 건드리지 말고 오탈자만 바로잡아줘'라고 요청하면 문제가 훨씬 줄어듭니다.
셋째, AI 문체 특유의 '나쁜 버릇'을 바로잡아주면 좋습니다. 생성형 AI를 활용하면 맞춤법이나 비문을 쉽게 정정할 수 있죠. 하지만 AI의 도움을 받은 글을 반복해 읽다 보면 썩 좋지 않은 특유의 습관을 발견하게 됩니다.
|
|
| ▲ 생성형 AI가 작성한 에세이 <오늘을 넘기자는 말> 초안 일부 내용. 우리말에서 잘 안 쓰는 엠대시와 불필요한 따옴표, 이모지가 많다. |
| ⓒ 이주영 |
지난 11월 13일 <워싱턴 포스트>는 챗봇이 영어로 공개 공유한 메시지 32만8744개를 분석한 결과를 보도했는데요, 지난 여름 기준으로 챗GPT 응답의 절반 이상에 엠대시가 포함돼 있었다고 합니다. 오죽하면 일각에선 엠대시를 '챗GPT 하이픈'이라고 놀린다네요.
어찌 됐든 한국어 글쓰기와는 안 어울리니 과하게 들어간 엠대시를 쉼표나 온점으로 바꿔주는 게 좋습니다. 간혹 이모티콘도 글에 들어가곤 하는데 산문이나 기사와는 안 어울리니 빼는 게 낫겠죠?
[이렇게 활용하자] 나의 '공동 편집자'라고 생각하기
이선 몰릭 펜실베이니아대 와튼스쿨 부교수는 AI를 일과 삶에 적용하는 방법을 담은 서적 <듀얼 브레인>에서 "AI의 이질적인 관점이 우리에게 도움이 될 수 있다"며 "단순히 AI에 의존하는 것이 아니라, AI의 도움을 받아 자신의 선택을 돌아볼 수 있게 된다"고 조언합니다.
이 글을 쓰고 있는 저 역시 글 쓸 때 생성형 AI를 '또 하나의 편집자'로 활용합니다. 제 주장과 다른 쪽에서 어떻게 반박할 수 있는지 관점을 바꿔보거나, 초고에서 빈약한 논리나 근거는 없는지 찾을 때 질문을 던집니다. 모든 답이 맘에 들진 않지만 가끔 몰랐던 사례나 생각지 못한 발상을 얻곤 합니다.
하지만 문장을 한 줄 씩 써내려가는 일만큼은 절대 안 맡깁니다. 글은 개인이나 집단의 생각과 감정을 전하는 수단입니다. 스스로 경험하고 고민하는 과정이 생략된 문장은 넣고 싶지 않습니다. AI에 한 번, 두 번 부탁하다가 나중엔 영영 제 힘으로 한 줄도 못 쓰게 될까봐 두렵기도 합니다. 귀찮고 오래 걸려도 책상 앞에 앉아 단어를 고르고 문단을 지우고 쓰는 시간을 반복하는 이유입니다. 그렇게 끙끙 대며 쓴 글이 주는 희열은 결코 AI에게선 얻을 수 없을 겁니다.
*오마이뉴스 특별면 기사 읽기 : https://omn.kr/2gli3
Copyright © 오마이뉴스. 무단전재 및 재배포 금지.
- 1971년생들 보세요
- '중도 보수'가 이재명 정부 운명 결정한다
- '달라진 지귀연', 윤석열 형량은?
- 강대국인데 강대국이 아니다? 총리 신년사에 담긴 잔인한 진실
- '쿠팡 정보 유출' 10만원 아닌 30만원 배상액 선택한 이유
- 가로 바람 부는 제주, 집 안에선 이런 일 벌어지고 있다
- "이 정도면 괜찮은 가격이야"라고 말하는 순간은 언제일까
- 비판 여론 '뭉개는' 국힘... "개딸 김건희 질투" 윤리위원장 그대로 임명
- '주식·채권' 재산신고 누락... 이병진, 의원직 박탈형 확정
- 교육부장관 "학생 자살 10% 줄이자, 아이 한 명도 놓치면 안 돼"




