"취재하며 AI 위험성 느껴, 빨리 규제책 마련해야"

이영광 2023. 8. 6. 12:15
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[이영광의 '온에어' 264] KBS 1TV <시사기획 창> 최성원 기자

[이영광 기자]

챗GPT는 AI의 열풍을 몰고 왔다. AI는 우리 생활 깊숙이 들어왔다. 네이게이션을 통해 어디든 가고 유튜브로 음악 듣고 배달앱으로 음식 주문하는데 나에게 필요한 걸 알맞게 AI가 찾아준다. AI는 나보다 더 나를 잘 알고 있다. 하지만 이에 대한 규제는 미비하다. 괜찮을까?

지난 1일 KBS 1TV <시사기획 창>에서는 'AI혁명-챗GPT에 AI를 묻다' 편이 방송되었다. 챗GPT에 다큐 구성안을 요구해 제작한 이날 방송에서는 지난 연말부터 불고 있는 챗GPT 열풍과 함께 AI 기술이 어디까지 왔는지 짚고 인간과 AI가 어떻게 조화를 이룰지에 대해 담았다. 취재 이야기 듣기 위해 지난 3일 해당 회차를 취재한 최성원 기자를 서울 여의도 KBS 신관에서 만났다. 다음은 최 기자와 나눈 일문일답 정리한 것.

"다큐멘터리 구성안 챗GPT에 부탁, 놀라워"
 
 KBS 1TV <시사기획 창>의 한 장면
ⓒ KBS
 
- 지난 1일 방송된 KBS 1TV <시사기획 창> 'AI혁명-챗GPT에 AI를 묻다' 편 취재하셨잖아요, 방송 끝낸 소회가 어떠세요?
"프로그램을 기획한 의도가 있었는데요, 지금까지 우리가 많은 인공지능 AI를 사용하면서 지금 다니고 있어요. 예를 들어 이 기자님이 오늘도 버스와 지하철 갈아 타고 KBS에 왔는데 차량용, 지하철용 내비게이션 시스템 자체가 AI거든요. 그런데 지난해 말에 챗GPT가 출시되면서 사람들이 '우리가 AI랑 같이 살게 되는 거구나'라고 인식하는 시점이 되었거든요. 그래서 그것에 대한 메시지를 분명하게 전달하고 싶었어요. 그런데 제작진들이 고생을 많이 했습니다. 해보지 않은 프로그램이고 디지털을 영상으로 표현해야 하다 보니까 한 컷 한 컷을 만들어야 했고, 이 컷들을 시청자들이 이해할 수 있어야 했거든요. 그래서 소회를 물으시면 아주 후련합니다."

- 처음에 취재는 뭐부터 하셨어요?
"처음에 이 프로그램을 기획할 때 몇 가지 철학을 가지고 접근했는데요. 챗GPT를 이용해서 프로그램 만들자는 것이었습니다. 그래서 다큐멘터리 구성안을 챗GPT에 부탁했습니다. 챗GPT가 다큐멘터리의 구성안 작성하고 전문가들 추천하고 인터뷰 내용도 작성해 줍니다. 챗GPT는 한 단락의 줄거리를 어떻게 갈지도 구상해서 조언해 주거든요. 예를 들어 '카이스트 로봇 AI가 있는데 국제대회에서 우승했어. 교수님과 학생들이 연구실에서 로봇 AI를 시연하려고 하는데 스토리를 짜 줄래?'라고 물으면 챗GPT가 세부 스토리를 짜 줍니다. 심지어는 영문 이메일도 완벽할 정도로 잘 작성해 줍니다. '미국 USC 대학 로스쿨 조나단 최 교수님에게 다큐멘터리 인터뷰를 요청하는 이메일을 아주 정중한 톤으로 작성해 줄래'라고 프롬프트에 입력하면 완벽한 수준의 이메일을 영문으로 바로 작성해 줍니다. 놀라운 일이지요."

- 얼마나 <시사기획 창> 제작에 반영된 건가요?
"전체적인 구도에서 반영이 됐다고 생각이 됩니다. 예를 들어서 챗GPT란 무엇인지 그리고 AI 로봇, AI 아트, 그리고 규제 이렇게 전체적인 구도가 있거든요. 그 전체적인 뼈대를 구축하는 데 참고한 겁니다. 그런데 챗GPT가 제안해서 참고했다고 하지만 실질적으로는 우리가 구성안을 작성할 때 일반적인 구성이거든요. 결국 일반적인 구성과 기획할 때는 유사한 형태로 갈 수밖에 없다고 생각했습니다. 장점은 우리가 생각하지 못했던 것들도 있거든요. 구성의 어떤 구멍이라고 할까요. 챗GPT는 그런 구멍들도 촘촘하게 메꿔주는 제안을 한다는 것이 특징입니다. 그것 사용하고 안하고는 사용자들의 몫이고요."

- 챗GPT 이전에도 비슷한 게 있었는데 그것과의 차이는 뭔가요?
"챗(CHAT) GPT라는 것의 'CHAT'이 '대화한다'라는 의미거든요. 이미 우리나라에서도 많은 기업이 사용하고 있는 '챗봇'이 있습니다. 이것과 유사한 기술입니다. 그런데 예를 들어서 소설을 써준다든지 아니면 시를 써준다든지 아니면 어떤 구성안을 만들어 주는 건 기존에 챗봇이 할 수 없었던 일이거든요. 그런 면에서 굉장한 큰 차이가 있습니다. 그걸 인간들은 '챗GPT가 상당히 창의적인 것을 제시한다'라고 믿는 거죠. 실제로 이미 나와 있는 자료들을 조합하는 거지만 어쨌거나 이런 조합을 통해서 우리가 기존에 못 보던 창의적인 일을 하고 있다고 인식하게 되는 거죠. 그게 챗봇과 아주 큰 차이입니다. 그런데 인간이 직접 하는 창의적인 작업이라는 것도 결국 모방에서 시작되고 원본에 대한 일부 변형 등의 반복적인 작업을 통해서 완성되잖아요. 저는 챗GPT의 창의적인 것도 같은 맥락이라고 생각해요."

- 내레이션을 가수 육중완씨와 AI가 했는데 뒷이야기가 있을 것 같아요.
"어려운 부탁을 저희가 육중완님에게 드렸는데, 육중완 가수를 선택한 이유는 자유분방함의 상징이기 때문이거든요. 초거대 AI가 개발이 됐고 AI에 대해 규제하려고 추진 중이고 AI는 인간의 지능을 뛰어넘어 어디로 튈지 알 수 없는 상황이고요. 그래서 인간의 자유로움의 상징을 보여주고 싶어서 육중완님에게 해설을 부탁한 것입니다. 그리고 육중완씨의 AI를 생성해서 사용하겠다고 이야기했고 육중완씨가 흔쾌히 승낙한 겁니다."

- 진짜와 AI 차이가 있나요?
"있습니다. AI가 아직 목소리에 감정을 싣지는 못하거든요. 사람은 내레이션할 때 어떤 부분에 대해서는 감정을 이입하고 어떤 부분에 대해서는 드라이하게 읽는데요. AI는 아직 그런 기능이 없습니다. 그런데 기술적으로는 그게 어렵지 않다고 생각해요. AI 보이스를 더 많이 사용하게 되면 사용하는 목적에 따라 오디오 톤을 나눌 수 있을 것 같고요. 그렇게 되면 강화학습을 통해 감정 이입시키는 톤까지 조정할 수 있을 같아요."

- 인간이 AI의 지배를 받을 수도 있을까요?
"저는 사실 우리가 모르는 사이에 이미 지배받고 있다고 생각하거든요. 예를 들어서 우리가 쿠팡이라든가 아니면 넷플릭스라든가 아니면 배달 앱이라든가 유튜브도 마찬가지고요. 우리가 가장 많이 사용하고 있는 앱들을 열었을 때 우리가 전체 메뉴를 다 검색하진 않거든요. 우리가 먹고 즐기고 보는 것들은 이미 대부분 사람이 추천 메뉴에 의존하거든요. AI는 이미 나보다 내가 뭘 더 좋아하는지를 알고 있어요. 그래서 그 메뉴를 눌러 주는 겁니다. 그래서 이미 우리가 AI의 지배 속에서 살고 있다는 생각이 들더라고요."

- 컴퓨터는 0과 1밖에 인식 못 하는 거로 아는데 AI는 사람의 언어를 변환하지 않고 인식하나요?
"'사람의 언어를 AI가 직접 인식한다'라고 하기보다 디지털 신호인 0과 1을 인식하는 겁니다. 인간의 언어라는 것이 문자나 음성 또는 수화에 사용되는 손짓과 발짓, 몸짓이지 않습니까. 인간의 음성이나 글자도 AI는 역시 0과 1로 인식하는 겁니다. 예를 들어서 제가 1이라는 표현을 하면 1이라는 것은 컴퓨터가 인식할 때는 01 0101 1 01 01 01 0 1 110…. 이런 걸로 인식하거든요. 그러니까 챗GPT도 마찬가지고 우리는 문자를 AI가 인식해서 대화한다고 생각하지만, AI는 0과 1에 대한 데이터를 가지고 재조합하는 겁니다."

"챗GPT 사용할 때 가장 주의할 점은..."
 
 최성원 기자
ⓒ 이영광
 
- 챗GPT가 미국 여러 시험 합격했다던데 스스로 생각할 수 있는 건가요?
" 의사면허 시험(USMLE), MBA(경영대학원) 시험 그리고 로스쿨 시험 등 가장 어렵다는 3대 시험을 미국에서 통과했어요. 그럼 '챗GPT가 스스로 생각해서 패스한 거냐?'라고 하면 그건 아닙니다. 챗GPT의 특성이 있어서 시험에 통과한 거예요. 미국의 시험은 대부분이 문제은행식 출제입니다. 트릭을 쓰지 않고 학습한 것을 '이걸 알고 있지'라고 묻는 시험이거든요. 학습한 지식을 제대로 알고 있는지 평가하는 시험인데요. 일종의 운전면허 시험이라고 생각하면 쉽습니다. 챗GPT는 질문에 대한 답변을 추론하는 특별한 능력을 갖추고 있어요. 그래서 질문자의 질문에 들어 있는 단어를 통해 답변을 추출하고 추론을 통해 다음 질문에 나오는 답변을 하는 형태로 답변 만들어 가는데 인간이 대화하는 것처럼 이어 붙이는 방식으로 답변을 만드는 것입니다. 답안을 쓰는데 어찌 보면 최적화 되어 있는 것입니다."

- 생성형 AI가 돌풍인 거 같은데 왜일까요?
"생성형 AI의 특징은 인간이 처음으로 인간 아닌 것들과 대화를 시작했다는 겁니다. 챗GPT랑 대화를 시작하면 굉장히 재밌습니다. 그리고 지금은 또 초창기 버전과 다르게 상당히 챗GPT를 다시 강화 학습 시켰더라고요. 그러니까 무리한 대화를 하지 않도록 챗GPT를 강화 학습 시켜놨어요. 그래서 인간이 느끼기에 사람과 대화하는 것처럼 빠져들어요.

또 하나는 내가 생각했던 것보다 훨씬 더 방대한 자료들을 챗GPT가 제공해 주거든요. 예를 들어서 음악프로듀서인 닥터 조가 다큐멘터리에서도 보여줬지만, 위저드라는 도마뱀이라는 제목으로 가사 만들고 싶을 때 챗GPT에 요구하면 바로 가사를 써주거든요. 놀라운 일이죠. 창작은 인간만이 할 수 있다고 생각했는데 해보니까 AI가 오히려 더 잘하는 거예요. 관련 업계에 있는 미국 작가협회에서 챗 GPT의 출시와 동시에 미국 대도시에서 지금도 시위하고 있어요. 챗GPT 사용을 금지해달라고요. 바로 그런 이유 때문입니다."

- 챗GPT에 세종대왕이 맥북 던진 사건 설명해 달라고 하니까 없는 사건 만들어서 얘기하잖아요. 그런 건 지금 없나요?
"그런 오류는 여전합니다. 예를 들어서 기자님이나 저에 관해서 물어보잖아요. 그러면 챗GPT가 굉장히 틀린 정보를 얘기해줍니다. 그래서 어떤 사람들은 20~30% 잘못된 정보를 챗GPT가 생산하고 있다는 이야기도 합니다. 지금까지도 챗GPT를 만든 OPEN AI사가 정보의 수집 경로와 정보오류의 정도, 사용자 숫자, 데이터 처리량 등에 대한 정보를 공개하고 있지 않아요. 대신 개발사 CEO인 샘 알트만이 전 세계를 다니면서 AI 규제가 필요하다고 강조하는 아이러니한 일이 벌어지고 있는 거죠. 

전문가들은 챗GPT가 생산하는 이런 오류를 '할루시네이션(환각)'이라고 표현하는데요. 환각 증상이 무엇이냐 하면 챗GPT는 답변하도록 프로그램되어 있어요. 질문의 단어와 단어를 이용해 답변을 추출해 추론하는 방식인데 추론할 게 없으면 비슷한 것을 끌어와 답변을 만드는 것이죠. 어디서라도 자료를 뽑아서 추론하다 보니까 상당히 많은 오류가 발생하는 것입니다. 그래서 챗GPT를 사용하는 데 있어서 가장 주의할 점은 스스로 챗GPT가 만든 정보가 맞는 것인지 확인하는 일입니다."

- 어떻게 하면 인간과 기계가 완벽한 조화를 이룰 수 있을까요?
"완벽한 조화라는 게 굉장히 어려운 얘기고요. 저는 AI 기능 자체가 인간의 생명이나 삶에 직간접적인 영향을 미치는 단계에서 정말 완벽할 정도의 규제가 필요하다고 생각해요. 예를 들어서 지금 자동차를 도로에서 몰고 다니시잖아요. 지금 우리가 핸들을 잡고 자유롭게 타고, 다니기까지 얼마나 많은 규제가 마련이 됐고 얼마나 많은 안전장치가 마련이 됐고 또 지금도 얼마나 많은 법규가 새로 생기고 있는지를 보면 AI에 대한 규제가 얼마나 비대칭인지 알 수 있어요. 최근에도 학교 주변 어린이 보호구역에서는 시속 30km를 못 넘도록 강력한 속도 제한 조치가 입법됐잖아요. 

그런데 AI 생각 해보세요. 지금 우리가 이렇게 다용도로 사용하는데도 아무런 규제가 없어요. 어떻게 보면 법규의 심각한 비대칭인 셈이죠. AI가 창작하고 군사적 목적으로 사용되고, 자율 주행 시스템이 완성되고 있고 하는데도 규제 방안이 마련되지 않고 있는 것입니다. 알고리즘에서도 각종 편견과 차별적인 내용들이 발견되는데도 마땅한 규제 방안이 없어요. 개발자가 어떤 윤리적인 접근을 해야 하는지에 대해서도 규정된 게 없어요. 마구잡이로 개발하다 문제가 하나 적발되면 그냥 사회적으로 매장하는 구조인 거죠.

저는 그래서 AI 개발 단계에서부터 윤리적 교육이 필요하다고 생각해요. 알고리즘 내에 편견과 차별, 혐오가 존재하지 않고 AI는 인간의 삶을 더욱 풍요롭고 행복하게 만드는 것을 목적으로 만들어져야 한다는 것을 분명하게 명시해야 하고요. AI 리터러시라고 할까요. 개발, 유통, 사용 단계에서 단계에 맞는 교육시스템이 구축되고 AI는 반드시 인간의 생명을 존중하고 삶을 풍요롭게 만들기 위해서 존재한다는 철학을 분명하게 심어주어야 한다고 생각해요. 곧 우리는 AI에 의해 근무 평가를 받고 해고 대상으로 분류될 수도 있어요. 그런 AI를 개발 중이니까요. 그런데 그 알고리즘이 이미 공정하지 않다면 어떻게 할까요?"

- 취재하며 느낀 점 있을까요?
"AI의 위험성이에요. AI가 생각보다 너무나 빨리 진화하고 있고 인간 지능을 뛰어넘는 AGI의 출연이 얼마 남지 않았기 때문에 빨리 규제책을 마련해야 한다는 것을 느꼈어요. 프로그램을 만든 이유가 AI와의 공존이 시작됐다는 것을 시청자들에게 알리고 싶었거든요. 우리 사회에서 AI에 대한 더 깊은 인식과 공감대 그리고 AI 개발에 대한 윤리적 문제, 기준 마련을 위한 논의가 빨리 이뤄져야 한다는 거죠."

- 취재했지만 방송에 못 담은 게 있을까요
"군사용 AI 로봇 개발의 위험성, 그 부분에 대해서는 시간이 없어서 다루지 못했어요. 그 부분에 대해서 다뤄야 할 필요성이 있다는 생각을 들더라고요. 예를 들어 AI 파일럿이나 AI 드론 등 AI가 군사적 무기로 사용됐을 때 정말 끔찍하거든요. 누가 그것에 대한 규제 권한을 갖고 누가 인간을 살상하도록 명령을 내릴 것인가, 악용됐을 때 어떻게 막을 수 있을 것인지 등등. 이미 기술은 개발이 돼서 출시 직전에 있는데 그런 부분에 대한 관련 법은 아예 존재하지 않으니까요."

저작권자(c) 오마이뉴스(시민기자), 무단 전재 및 재배포 금지

Copyright © 오마이뉴스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?