[박영서 칼럼] "챗GPT, 인간을 시험에 들게 하지 말라"

2023. 4. 18. 18:45
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

박영서 논설위원

존경받는 목사님이 교회에서 설교를 했다. 훌륭한 설교가 끝나자 감동받은 신도들 사이에서 박수가 나왔다. 그런데 설교 원고의 저자는 목사님이 아니라 챗GPT였다.

실제로 챗GPT에 설교문을 써달라고 요청하면 그럴듯한 문장을 만들어 낸다. 이미 한국 교회에선 목회자의 약 절반 정도가 챗GPT를 사용한 것으로 나타났다.

역사적으로 설교의 언어는 수 많은 세대의 지식과 학문, 종교 지도자들의 카리스마와 경험 등이 결합되어 만들어졌다. 일종의 종합예술이고, 하나님의 목소리로 간주되는 설교를 이제 챗GPT가 대신하는 시대가 왔다. 챗GPT는 모든 종교에 필수적인 설교를 쓸 수 있다. 그것도 단 몇 초 만에 설교 콘텐츠를 생성한다. 이전에는 감히 상상도 못 할 일이다.

언어생성형 AI인 챗GPT가 뜨거운 화두다. 질문을 할 때마다 답을 새로 만들어 주고, 그것을 기반으로 새롭게 학습을 해 또다른 답을 생성해 낸다. 소설도 쓰고 노래도 작곡한다. 미국 변호사 시험도 통과했다. 심지어 거짓말까지 잘한다. 당연히 큰 화제를 모을 수 밖에 없다.

더 놀라운 것은 확산력이다. 지난해 말 스타트업 '오픈AI'가 챗GPT를 출시한 이후 두 달만에 이용자가 1억명을 넘을 정도로 '광풍'이다. 인스타그램(2년 6개월), 틱톡(9개월) 등이 보유했던 종전 기록을 단번에 갈아치웠다. 향후 10억명 돌파도 시간문제로 보인다.

이런 챗GPT는 막대한 영향을 미칠 것이다. 그 영향은 개발사 오픈AI의 최고경영자(CEO)조차 "두렵다"고 토로할 정도다. 아직 사회는 세상의 변화를 받아들일 준비가 안되어 있다. 기대와 불안이 교차할 수 밖에 없다.

챗GPT의 등장으로 직장인들은 보고서를 효율적으로 완성하고, 학생들은 손쉽게 레포트를 쓴다. 언론인들은 기사 작성에 큰 도움을 받을 수 있게 됐다. 우리가 일하는 방식을 바꿔놓을 것이다. 그저 놀라울 따름이다. 그럼에도 발전의 여지가 무궁무진하다. 조만간 인간을 능가할 것이란 전망도 나온다.

반면 암담한 기분도 든다. 일단 지식노동자의 직업적 위기를 불러올 것이다. 챗GPT로 인해 번역가, 통역사, 언론인이라는 직업이 가장 먼저 사라질 것이라는 통계도 나왔다. 일자리를 뺏길 거란 공포감이 크다.

가짜뉴스나 여론 조작, 악성코드와 음란물 생성, 표절, 보이스 피싱 등 부작용도 우려된다. 남용될 위험이 크다. 누군가는 큰 피해를 당할 것이다. 피도 흘릴 것이다.

제대로 통제가 안된다면 사회가 붕괴될 수 있다. 뉴욕타임스(NYT)는 "기술 산업이 지난 수십 년 동안 가장 예측할 수 없는 순간에 도달했다"고 평가했다. 이탈리아에 이어 미국 정부도 챗GPT와 같은 생성형 AI 관련 규제 작업에 들어간 것은 이런 우려때문이다.

지금까지 인류는 자신들이 생성한 지혜로 걸어왔다. 창조주가 만든 최고의 걸작이라는 인간은 지능을 활용해 기술을 만들었고, 그 기술은 삶을 풍요롭게 만들었다. 하지만 그 기술은 되레 인간의 종말을 앞당기고 있다.

인간은 DNA를 알고 있는 지구상 유일한 동물이지만, 유전자 복제기술로 신의 영역을 침범했다. 인간은 '꿈의 에너지'라고 불리는 원자력을 개발했지만, 무기로 만들어 수많은 민간인들을 죽였다. 인간이 야기한 기후 온난화로 생물 다양성은 급감하고 있다. 이미 산호의 99%는 멸종했다.

챗GPT의 도움을 받아 설교를 하는 게 옳으냐 그르냐는 사실상 무의미한 논쟁이다. 이를 활용하는 목회자의 영성이 중요한 것이다. 마찬가지로 챗GPT가 인류 전체에 재앙이 아닌, 이익이 되게 하려면 인간의 책임감과 윤리의식이 따라주어야 한다.

챗GPT의 문제는 결국 인간의 문제다. 이에 대해 챗GPT는 다음과 같이 답한다. "AI는 인간이 이를 어떻게 사용되는지에 따라 친구도 될 수 있고 적도 될 수 있다."

가장 경계해야 할 대상은 AI가 아니라 AI 뒤에 있는 인간이다. 인간이 새로운 기술을 사용하는 방식에 따라 독이 될수도, 약이 될수도 있는 것이다. 과거를 보면 답이 나온다. 역사를 배우는 것은 바로 그런 이유 때문이다.

박영서 논설위원

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?