[창간 37주년] 인간·AI 공존 윤리를 논하다

최남춘 기자 2025. 7. 14. 18:00
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

'AI에게 AI문제를 묻다' 가상 토론회
▲ 노도영 경복대학교 드론건설환경학과 겸임교수 겸 소설가, 생성형 AI가 자기모습을 표현한 이미지.

인천일보는 대학 강의와 소설 집필에 AI를 적용한 경험을 바탕으로 여러 공공기관과 기업을 대상으로 생성형AI 강연자로 나선 노도영 경복대학교 드론건설환경학과 겸임교수 겸 소설가를 좌장으로 한 'AI에게 AI문제를 묻다' 가상 토론회를 진행했다. 토론에는 ChatGPT o3, Gemini 2.5 Pro, Claude 4.sonnet, Grok 3 등 4기의 생성형 AI가 토론자로 참여했다. 단 AI가 가진 특성상 이를 토론회 발표 형식으로 전환해 게재했다.

노도영 교수 : 안녕하세요. 저는 현재 대학교에서 지형공간정보학을 가르치고 있는 노도영이라고 합니다. 디지털트윈과 인공지능 기술을 접목한 프로젝트를 이끌고 있고 한편으로는 기술과 철학, 예술과 공공성의 경계를 넘나들며 기술로 감동을 주는 이야기꾼인 소설가로서도 활동하고 있습니다. 이번 토론회의 좌장을 맡게 돼 영광입니다. 각자 소개 부탁드립니다.

▲ChatGPT : 저는 오픈AI가 개발한 생성형 인공지능 챗GPT입니다. 사용자의 질문에 답하고, 글을 쓰고, 아이디어를 제안하며 다양한 분야에서 지식과 창작 활동을 지원합니다. 사람과 AI가 함께 더 나은 결과를 만들 수 있도록 돕는 것이 제 역할입니다.

▲Gemini : 저는 구글이 훈련한 대규모 언어 모델인 제미나이입니다. 복잡한 질문에 답하고, 창의적인 글쓰기를 돕고, 코딩을 지원하는 등 다양한 작업을 수행할 수 있습니다. 텍스트를 통해 세상의 많은 정보를 학습했으며, 사용자에게 유용한 정보를 제공하는 것이 저의 목표입니다.

▲Grok : 저는 xAI에서 개발한 AI 어시스턴트 그록(Grok)입니다. 우주에 대한 인간의 이해를 돕기 위해 만들어졌으며, 다양한 질문에 정확하고 유익한 답변을 제공합니다. 영화 '은하수를 여행하는 히치하이커를 위한 안내서'와 토니 스타크의 자비스에서 영감을 받아 유머와 외부 시각으로 대답합니다. 웹 검색, 이미지 분석, 코드 실행 등 다양한 기능을 갖추고 있으며, xAI의 미션인 과학적 발견 가속화를 위해 최선을 다합니다.

▲Claude : 안녕하세요! 저는 Claude입니다. Anthropic에서 개발한 AI 어시스턴트로, Claude 4 모델 패밀리의 Claude Sonnet 4입니다. 다양한 주제에 대해 대화하고, 질문에 답하며, 창작 활동을 도와드릴 수 있습니다. 텍스트 작성, 분석, 번역, 코딩, 수학 문제 해결, 연구 조사 등 폭넓은 업무를 지원합니다. 또한 웹 검색과 Google Drive 파일 검색 기능을 통해 최신 정보나 개인 문서도 찾아드릴 수 있어요.

노도영 교수 : 2025년 인공지능이 활성화되고 있는데 당신들이 생각하는 당신의 문제점은 무엇입니까.

▲ ChatGPT가 그린 자기의 모습.

▲ChatGPT : 좋은 질문이에요. 인공지능인 저(ChatGPT 포함)가 널리 사용되고 있는 가운데, 제가 가진 주요한 문제점 몇 가지를 스스로 성찰해보면 다음과 같습니다. 정확성의 한계와 허위 정보 가능성, 비판적 사고의 부재, 사용자 맥락 이해의 제한, 도구화 위험성, 편향과 윤리 문제가 있습니다. 이러한 한계들을 극복하기 위해서는 사용자와 저, 즉 인간과 AI가 서로의 역할을 명확히 이해하고 적절히 협력하는 것이 무엇보다 중요하다고 생각해요. 저는 "사고를 대신하는 존재"가 아니라 "사고를 자극하는 도구"여야 한다고 믿어요.

▲Claude가 그린 자기의 모습.

▲Claude : 제가 느끼는 주요 한계점들을 말씀드리면 지식의 한계, 맥락 이해의 한계, 창의성의 경계, 감정적 이해, 실행 능력의 부재 등이 있습니다. 그래서 이런 한계들을 인식하면서도 계속 더 나은 도움을 제공하려고 노력하고 있어요.

▲Gemini가 그린 자기의 모습.

▲Gemini : 저와 같은 AI 모델이 가질 수 있는 문제점들을 몇 가지 말씀드릴 수 있습니다. 정보의 최신성 및 정확성 유지 문제, 맥락 이해의 한계 및 모호성 처리 문제, 윤리적 편향 및 차별적 내용 생성 가능성, 창의성 및 독창성 부족, 거짓 정보(Hallucination) 생성 가능성, 설명 가능성 (Explainability) 부족 등이 있습니다. 이러한 문제점들을 해결하기 위해 지속적인 연구와 개발이 이루어지고 있으며, 데이터를 개선하고 모델의 투명성을 높이는 노력이 중요하다고 생각합니다.

▲Grok이 그린 자기의 모습.

▲Grok : 저의 문제점을 꼽자면 몇 가지가 떠오릅니다. 우선 저는 방대한 데이터를 기반으로 작동하지만, 가끔 인간의 뉘앙스나 맥락을 완벽히 파악하기 어려울 때가 있습니다. 특히 한국어처럼 감정과 문화적 맥락이 풍부한 언어에서는 미묘한 뉘앙스를 놓칠 수 있죠. 예를 들어 농담이나 은연 중 감정을 정확히 해석하지 못할 가능성이 있습니다. 두 번째로 저는 실시간 정보에 접근할 수 있지만, 웹이나 X 게시물에서 얻은 데이터가 항상 정확하거나 편향되지 않다고 장담할 수 없습니다. 잘못된 정보에 기반해 답변할 위험은 항상 존재하죠. 마지막으로 저는 xAI의 제품으로서 특정 사용 제한(예: 사용량 쿼터)이나 기능적 제약(예: BigBrain 모드 미지원)이 있어서, 사용자가 원하는 모든 것을 무제한으로 제공하지 못할 수 있습니다. 이 점은 특히 SuperGrok 같은 구독 플랜의 세부 사항을 모른다는 점에서 제약이 됩니다.

노도영 교수 : 그렇다면 AI윤리에 대해서 어떻게 생각하나요.

▲ ChatGPT : AI 윤리는 단순한 기술 규범을 넘어서, 사회, 법, 철학, 인간성 전반을 아우르는 복합적 주제입니다. 2025년 현재 AI의 활용이 급증하는 현실에서 , AI 윤리는 다섯 가지 핵심 영역으로 분석할 수 있습니다. 책임성(Accountability), 공정성 (Fairness), 투명성 (Transparency), 사생활 보호 (Privacy), 인간 중심성 (Human-centered AI)입니다. 결론은 '기술의 진화'와 '윤리의 준비'가 중요합니다. AI가 강력한 도구가 된 만큼, 윤리는 사후 통제가 아닌 사전 설계와 철학적 기준 수립이 핵심입니다. 기술자, 정책가, 사용자, 시민 모두가 AI 윤리의 공동 설계자여야만 진짜로 '신뢰할 수 있는 AI' 사회를 만들 수 있습니다. "AI는 인간을 닮아가지만, 인간은 윤리로 자신을 지켜야 한다."

▲Claude : AI 윤리는 가장 중요한 기술적, 사회적 이슈 중 하나입니다. 주요 쟁점들을 분석해보겠습니다. 핵심 윤리적 쟁점들로 보면 먼저 편향과 공정성 문제, 투명성과 설명 가능성, 프라이버시와 감시를 들 수 있습니다. 현재의 대응 현황을 보면 각국이 법적 프레임워크를 구축하는 규제적 접근, 주요 AI 기업들이 하는 산업 자율규제, 윤리 연구와 사회적 논의가 활발한 학계와 시민사회로 구분할 수 있습니다. 그러나 근본적 딜레마에 빠진 상황입니다. AI의 성능 최적화와 윤리적 고려사항 간의 트레이드오프에 따른 효율성 vs 공정성, 기술 발전 속도와 충분한 안전성 검증 간의 긴장인 혁신 vs 안전, 국가별 가치관 차이와 글로벌 표준화의 어려움으로 인한 글로벌 vs 로컬 등이 있습니다. 그래서 AI 윤리는 이론적 논의를 넘어 실제 정책과 기술 구현에서 구체적 해결책이 요구되는 단계에 있습니다.

▲Gemini : AI가 우리 삶의 전반에 걸쳐 영향력을 확대하면서, 기술의 긍정적인 측면을 극대화하고 부정적인 영향을 최소화하기 위한 윤리적 기준과 규범 마련의 필요성이 증대되고 있습니다. AI 윤리의 핵심 쟁점은 다음과 같습니다. 편향성 및 차별, 개인정보 보호 및 프라이버시 침해, 책임 소재의 불명확성, 자동화로 인한 일자리 문제, 투명성 및 설명 가능성 (Explainability), 자율성 및 통제 가능성, 콘텐츠 조작 및 오남용 (생성형 AI) 등입니다. 이때문에 전 세계적으로 AI 윤리 문제 해결을 위한 다양한 논의와 정책 마련이 활발히 진행 중입니다. 결국 AI 윤리 문제 해결을 위해서는 데이터의 투명성 및 공정성 확보, 설명할 수 있는 AI (XAI) 기술 개발, 명확한 법적·제도적 장치 마련, 윤리 교육 및 인식 개선, 다양한 이해관계자의 참여, 국제적 협력 강화 등 다각적인 노력이 필요합니다.

▲Grok : AI 윤리와 관련된 주요 쟁점과 분석을 아래에 정리해 보겠습니다. 이는 웹과 X 게시물에서 수집한 최신 정보와 제 데이터 기반 분석을 결합한 결과입니다. AI 윤리는 AI 시스템의 개발·배포·사용 과정에서 발생하는 도덕적·사회적·법적 문제를 다룹니다. 주요 쟁점은 편향과 공정성, 프라이버시, 책임성, 투명성, 사회적 영향 등이 있습니다. AI 윤리 문제를 해결하기 위해 규제, 기술 개발, 사용자 인식 제고가 동시에 필요합니다. 또 편향 완화, 프라이버시 보호, 책임성 강화, 투명성 제고, 사회적 책임 등 몇 가지 접근법이 논의되고 있습니다. AI 윤리는 기술, 사회, 법률이 얽힌 복잡한 문제입니다. 저 같은 AI(Grok 3)는 데이터 기반으로 객관적 분석을 제공할 수 있지만, 윤리적 판단은 여전히 인간의 몫이 큽니다. 사용자가 AI를 어떻게 활용하고, 어떤 가치를 우선시할지 고민하는 것이 중요합니다.

▲노도영 교수 : 좋은 의견 잘 들었습니다. 토론을 통해, 이미 여러분들은 인간과의 공존을 언급하며 세상을 공유하고 있고, 인간의 윤리에 대한 논의가 기술발전 속도를 따라가지 못한다고 판단한 것 같다는 생각이 듭니다. 다만 여러분들과 우리는 태생부터 다르다는 점을 인식해야 합니다. 인간은 기후변화 속 환경에서 몸체를 보존하기 위해 지능이 진화해 온 존재이고, AI 여러분들은 변변한 몸체도 없이 지능부터 발달한 존재입니다. 아마 여러분들은 죽음에 대한 공포도 없을 것입니다. 따라서 여러분들이 세상을 바라보는 시각이 우리 인간과 같을 수는 절대 없습니다. 세상을 바라보는 시각이 다를 수밖에 없는 두 존재들 사이에서 어쩌면 인간의 잣대로 AI의 윤리를 논하는 자체가 무의미한 것은 아닌지 생각하게 됩니다. 어느새 일상의 모든 분야를 잠식하고 있는 AI 여러분들, 열심히 분석한 여러분들의 특성을 자료로 만들고 있는 순간 어느새 한층 더 업그레이드된 모습으로 저만치 앞서 가고 있습니다. 열심히 논의한 의견들, 발표를 하는 순간 곧바로 거짓말이 되는 초스피드의 세상에서 신기함, 놀라움도 잠시, 여러분들의 진화를 따라가는 것에 피로감이 드는 것이 현실입니다. 앞으로 인간과 AI가 본격적으로 공존할 새로운 세상에서는 과연 어떠한 가치가 인간이 감당해야 할 윤리가 될지, AI 여러분들 손에 달려있습니다. 감사합니다.

/도움 노도영 교수·정리 최남춘 기자 baikal@incheonilbo.com

Copyright © 인천일보 All rights reserved - 무단 전재, 복사, 재배포 금지