인터넷 이후 가장 혁신적인 기술, 챗GPT의 기술적 한계

챗GPT가 화제가 되면서 일상이나 업무에 적용하는 사례가 다양하게 나타나고 있다. 사용자들은 챗GPT로 에세이를 작성하기도 하고 영어 이메일 초안을 쓰기도 한다. 챗GPT에게 기사 요약을 요청하면 단 몇 줄로 기사의 핵심을 간추려 제공한다. 심지어 유튜브에는 챗GPT가 감독한 영화도 있다. 챗GPT의 능력을 한번 체험하고 나면 ‘이제 정말 새로운 세상이 왔구나!’ 하고 실감한다.

그러나 챗GPT는 완전하지 않다. 사람만큼 잘하거나 더 뛰어난 영역이 있지만 ‘학습된’ 데이터를 바탕으로 텍스트를 ‘생성’한다는 특성에 따른 태생적 한계가 있다.


◆ 기술적 한계: 정확도와 할루시네이션

최근 챗GPT가 엉뚱한 답변을 내놔 화제가 된 사건이 바로 ‘세종대왕 맥북 던짐 사건’이다. 챗GPT-3.5 버전에 “세종대왕 맥북 던짐 사건에 대해 알려달라”고 요청하면 이렇게 답한다.

출처: 챗GPT-3.5 캡처

이 답변은 실제 역사적 사실과는 전혀 무관하다. 한국인이라면 누구나 틀린 답이라는 것을 알 수 있지만 누군가는 이를 진실로 받아들일 수 있다는 문제가 있다.

이런 문제를 바로 ‘할루시네이션’ 현상이라고 한다. 직역하면 ‘환각’이라는 뜻으로, AI 모델이 아예 현실에 근거하지 않거나 사실적 근거가 부족함에도 불구하고 이를 사실처럼 이야기하는 것을 의미한다. 쉽게 말해서 설득력 있게 들리는 거짓말을 한다는 뜻이다.

또한 챗GPT에게 특정 주제와 연관된 자료를 찾아달라고 요청하면, 존재하는 논문과 책 리스트 사이로 존재하지 않지만 그럴듯한 논문과 책 제목을 슬쩍 포함하여 답변을 생성한다. 이를 제대로 체크하지 않고 그대로 사용했다가는 큰 낭패를 볼 수 있다.

챗GPT는 근본적으로 ‘새로운’ 텍스트를 만드는 생성형 AI이며, 딥러닝으로 데이터를 학습한 뒤 학습된 패턴에 따라 응답을 생성한다. 이 과정에서 질문의 의도나 문맥, 배경을 완전히 이해하는 것이 아니라 확률적으로 가장 적합한 문장을 만들어내는 것이다.

또한, 챗GPT는 인간과 달리 진짜와 가짜 정보를 구분하는 데 서툴다. 인간이 가진 상식이나 추론 능력은 아직 다소 부족하다.

전문가들은 이 문제를 해결하기 위해 딥러닝에 지식 그래프를 통합하고, 학습 데이터 품질을 개선하고, 실시간 정보를 반영한 언어 모델을 개발하는 등의 다양한 노력을 진행 중이다. 한편, 챗GPT 서비스를 개발한 회사 오픈AI는 챗GPT가 생성한 응답에 대해 지속적으로 사용자의 피드백을 받고 있다. 이 피드백은 모델을 미세 조정하고 정확도를 개선하는데 사용된다고 밝혔다.

◆ 윤리적 문제: 프라이버시, 저작권, 환경 문제

위와 같은 문제 외에도 민감한 개인정보를 유출하거나 활용 단계에서 프라이버시를 침해하는 응답을 생성할 가능성도 있다. 개인정보, 금융 정보 및 기타 기밀 데이터와 같은 민감한 정보가 악의적으로 사용될 수 있는 위험이 있다.

또한, 챗GPT는 창작에 유용한 도구로 여겨지지만 지적 재산권 문제는 논쟁의 여지가 있다. 생성형 AI는 ‘학습된’ 데이터를 바탕으로 하기 때문에 엄밀히 말해 완전히 새로운 것을 창조하지는 않는다고도 할 수 있다. 관점에 따라 학습 데이터에 포함된 다른 사람의 창작물을 표절했다고 볼 수도 있는 것이다.

이외에도 탄소 배출과 같은 환경 문제도 고려해야 한다. 학습에 사용되는 데이터 소비량이 많을수록 더 많은 에너지가 필요하기 때문이다. 각 기업들이 경쟁적으로 더 뛰어난 생성형 AI 모델을 개발하려고 노력 중이기 때문에 환경에 점점 더 큰 위협이 될 것이다. 컴퓨팅 리소스와 전력 소모를 줄일 수 있는 AI 기술 개발이 필요한 이유다.


챗GPT는 일상에 유용한 만큼 태생적 한계를 안고 있다. 챗GPT와 같은 AI 시스템이 유용하고 가치 있게 활용될 수 있도록 책임 있는 자세가 계속되어야 하는 시점이다.

🎖️AI 분야 전문가들이 추천하는 챗GPT와 생성형 AI 분석서!