초거대 AI 황금빛 미래일까? 장점 많지만 한계 명확…투자 이어가야
초거대 AI 미래는 황금빛일까. 아직까지는 장점과 한계가 뚜렷하게 나타난다. 뛰어난 기술력을 바탕으로 인간의 생활 방식을 바꾸고 기업 생산성을 높이는 데 기여할 수 있다는 점은 전문가 사이에 이견이 없다. 그러나 잘못된 정보를 생산하거나 인간 세상에 대한 이해가 부족하다는 점에서 보완해야 할 과제도 만만치 않다.
생산성 향상·인간 한계 초월
일자리 감소, 저작권 이슈도
초거대 AI가 인간의 편의성을 높여주고 기업 생산성을 높여줄 수 있는 도구라는 점은 명백한 사실이다.
이미 일상에도 초거대 AI가 스며들고 있다. 가장 유명한 초거대 AI 사례는 생성형 AI인 ‘챗GPT’다. 챗GPT는 기존 AI보다 수백 배 이상 대용량 데이터를 학습해 판단 능력이 인간의 뇌에 더 가깝게 향상된 대규모 시스템이다. 질문에 답변은 물론 복잡한 내용을 분석하고 정리하는 등 한층 고도화된 작업을 수행할 수 있다. 나아가 실수를 인정하고 잘못된 전제에 이의를 제기하거나, 부적절한 요청에는 답변을 거부하는 능력까지 갖췄다.
중요한 것은 챗GPT가 초거대 AI 시작점에 불과하다는 사실이다. 전문가들은 챗GPT를 비롯한 초거대 AI의 발달 가능성이 무궁무진하다고 내다본다. 초거대 AI 발달이 경제적으로는 전 산업에 걸쳐 생산성과 업무 효율을 높여줄 것으로 기대된다.
우선 제조업에서의 긍정적 효과를 기대할 수 있다. 제조업에 초거대 AI가 적용되면 인간의 단순 반복적인 작업을 대체하고, 개발 주기를 단축해 생산성이 향상될 것으로 기대된다. 법률 서비스에 적용해도 비슷한 효과를 기대할 수 있다. 판례 검색이나 고소장 자동 작성 등 전문 인력의 노동 집약적 업무를 초거대 AI가 대체할 수도 있다. 강의 자료 준비와 과제 작성 시간을 줄여줄 수 있다는 점에서 교육 서비스의 고도화가 기대되며, 자동 코딩을 통해 소프트웨어 개발 환경도 개선될 것으로 기대를 모은다.
단순히 노동 시간만 단축시킬 뿐 아니라 인간보다 정교한 서비스를 제공할 수 있다는 점도 강점이다. 의료 분야에 초거대 AI가 접목되면 신약 후보물질 발굴이나 임상 실험 등에서 더욱 정교한 분석이 가능해질 전망이다. 금융 분야에서는 개인 맞춤형 상품과 포트폴리오 개발을 통해 고객 만족도가 향상될 수 있다.
제일 먼저 지적되는 부분은 생성형 AI의 저작권 문제다. 생성형 AI를 학습시키는 데이터와 그렇게 만들어진 결과물에 대한 저작권 문제가 화두로 떠오르고 있다.
기술적인 문제도 있다. 사전에 학습된 AI 모델은 과거 데이터에 기반해 시의성에 대한 오류가 잦다. 아예 잘못된 정보를 전달하는 경우도 있다. 잘못된 정보를 그럴듯하게 전달하는 이른바 ‘환각 현상(Hallucination)’이다.
환각 현상은 윤리적인 문제로 번질 수 있다. 생성형 AI가 잘못 학습한 금융, 이름 등 각종 민감한 정보를 오용·악용할 가능성이 있고, 개인정보보호 관련 보안 문제도 따른다.
특히 윤리적 문제는 어린이에게 치명적이다. AI는 인간 세상에 대한 이해가 부족하기 때문에 자칫 AI로 학습한 아동은 사회성이 떨어지고 혐오 표현을 자연스럽게 배울 우려가 있다. 장병탁 서울대 교수는 “AI는 학생 지식 학습에 효율적인 반면 사회성 발달을 저해하고 인성을 교육하기 어렵다는 한계가 있다”며 “AI가 발달하면서 윤리적인 문제는 필연적으로 발생할 것”이라고 경고했다.
초거대 AI가 인간의 일자리를 대체할 것이라는 우려도 꾸준히 제기된다. 기존 정보기술(IT) 시스템이 단순 업무 자동화로 현장직 노동자에 영향을 줬다면, 초거대 AI는 사무직에도 영향을 줄 것이라는 전망이다. 김형철 소프트웨어 정책연구소장은 “일자리 문제는 초거대 AI가 일으킬 부정적인 영향”이라며 “나아가 AI와 클라우드 플랫폼 인프라를 보유한 빅테크 기업 중심 승자 독식으로 시장 생태계 쏠림 현상이 나타날 수 있다”고 내다봤다.
핵심 기술 투자해야
규제 놓고 찬반 ‘팽팽’
초거대 AI 기술 발전을 촉진하는 동시에 한계를 극복하려면 어떻게 해야 할까.
엄열 과학기술정보통신부 인공지능기반정책국장은 “공정성을 높일 수 있는 차세대 AI 원천 기술을 개발해야 한다”고 주장했다. 초거대 AI의 한계를 극복할 수 있을 정도의 핵심 기술에 적극적으로 투자해야 한다는 얘기다. 성과를 국민이 함께 나눠 수요를 늘려야 한다고도 강조한다. 그래야만 자연스럽게 산업 경쟁력이 강화될 것이라는 분석이다. 엄 국장은 또 “특히 보호아동, 독거노인, 장애인 등 사회적 약자의 삶의 질을 개선하고, 산업 현장과 공공 영역을 혁신하기 위한 기술 개발을 적극적으로 추진해야 한다”고 말했다.
김형철 소프트웨어정책연구소장도 초거대 AI가 지닌 한계를 타파하고 기술력을 확보하기 위해 지속적인 연구·개발(R&D)을 강조했다. 잘못된 결과를 스스로 교정할 수 있는 학습 기능을 추가하거나 사용자가 신고할 수 있도록 인터페이스를 마련하는 등 기술적 안전 장치를 구현할 필요가 있다는 진단이다. 결국 ‘신뢰성 검증 기능’ 강화에 적극 투자해야 현재 초거대 AI가 지닌 한계를 뛰어넘고 경쟁력을 갖출 수 있다고 보는 셈이다.
김 소장은 “부정확성을 해결하기 위해 학습하지 않은 데이터를 재구성하거나 피드백을 반영한 추가 학습을 통해 신뢰성을 확보하는 것이 중요하다”며 “막강한 학습 효과를 확보하기 위한 컴퓨팅 인프라에 대한 국가 차원의 지원도 필요하다”고 힘줘 말했다.
초거대 AI의 사회적 문제 해결을 위해서는 명확한 기준을 정립할 필요가 있다고 전문가들은 입을 모은다. 장기적으로 사회적 합의가 이뤄지지 않은 초거대 AI 활용은 사회적 혼동을 야기할 뿐이라는 의미다. 예를 들어 펜실베이니아 와튼스쿨 한 교수는 자신의 수업에 챗GPT를 AI 도구로 활용하도록 학생들에게 권장하되, 반드시 지켜야 할 원칙을 제시했다. 김 소장은 “사회에 올바른 방향으로 초거대 AI를 활용할 수 있도록 관련 법과 제도 마련이 시급하다”고 말했다.
AI 규제를 두고는 찬반 의견이 팽팽히 갈리는 가운데, 최근에는 규제에 찬성한다는 의견으로 무게 중심이 다소 쏠리는 분위기다. 찬성론자들은 AI의 위험성을 강조하며 더 큰 문제가 발생하기 전에 규제가 필요하다는 주장을 펼친다. 반면 반대론자들은 규제가 산업 발전을 저해한다며 R&D는 계속돼야 한다는 입장이다.
엄열 국장은 “최근 AI의 급속한 발전에 따라 위험성에 대한 우려도 커지고 있다. 이에 따라 글로벌 주요국을 중심으로 AI 관련 윤리·신뢰성 확보를 위한 규제 논의가 활발히 진행되는 상황이다. 다만 각국의 산업 수준과 특성, 문화적 인식 등 차이로 규제 수준은 일부 차이가 존재한다. 한국 정부도 글로벌 논의 동향을 면밀히 분석해 AI의 잠재적 위험성과 부작용을 방지하기 위한 정책적 노력을 지속할 것”이라고 말했다.
[본 기사는 매경이코노미 제2219호 (2023.07.26~2023.08.01일자) 기사입니다]
Copyright © 매경이코노미. 무단전재 및 재배포 금지.
- 에코프로그룹 실적은 - 매일경제
- [단독]한화 숙원 이뤘다...호주에 장갑차 ‘레드백’ 129대 수출계약 성공 - 매일경제
- 주가 향방에 투자자 관심 쏠려 - 매일경제
- [속보] 오늘로 올해 장마철 종료…당분간 폭염 이어져 - 매일경제
- ‘에코프로 2형제’ 또 신고가...무서운 2차전지 열풍 [오늘, 이 종목] - 매일경제
- 2차전지 열풍에 LS그룹도 가세?...증권가 잇따라 목표가 올려 [오늘, 이 종목] - 매일경제
- ‘황제주’ 이름값 할까…에코프로의 모든 것 - 매일경제
- LG엔솔 ‘신났다’...캐나다 기업과 5년간 황산코발트 1만9000t 규모 계약 - 매일경제
- “엘앤에프, 4분기부터 수익성 회복 전망” [오늘, 이 종목] - 매일경제
- 에코프로 머티리얼즈·이노베이션 가치 주목 - 매일경제