AI 규제 바람에… ‘안전한 AI’ 강조하고 나선 네카오

이경탁 기자 2024. 1. 4. 15:58
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

카카오, AI 정책지원 TF 등 구성해 격주 회의
네이버, CEO 직속으로 ‘AI 안전성 연구’ 조직 신설
韓, AI 기본법 국회 통과 대기
美도 가짜뉴스 등 AI 규제 관련 강화 움직임
일러스트=챗GPT 달리3

인공지능(AI)의 급속한 발전으로 인류가 위협받을 수 있다는 전망이 나오면서 전 세계적으로 AI 규제 바람이 불고 있다. 한국도 AI 관련 규제를 담은 ‘AI 기본법’이 국회 통과를 앞둔 가운데, 국내 빅테크 기업인 네이버와 카카오가 선제적으로 ‘안전한 AI’ 개발을 강조하고 나섰다.

4일 카카오 2023 기술윤리보고서에 따르면 카카오는 지난해 ‘AI 정책지원 TF’를 구성한 뒤 격주로 실무회의를 운영하고 있다. AI 정책지원 TF는 카카오 AI 서비스 및 개발 단계에서 필요한 개인정보, 법적 쟁점, AI 윤리 등에 대한 가이드라인을 제공한다.

카카오는 올해 상반기 카카오브레인과 함께 차세대 생성형 AI LLM(초거대언어모델) ‘코(Ko)GPT 2.0′를 발표할 예정이다.

카카오는 AI 윤리 핵심 가치를 공유하고 이를 서비스에 반영할 수 있도록 카카오브레인·카카오게임즈·카카오엔터프라이즈·카카오모빌리티·카카오엔터테인먼트·카카오뱅크·카카오페이 등 7개 계열사와도 공동체 기술윤리 위원회를 구성한 바 있다.

카카오 각 계열사 최고기술책임자(CTO)들은 매월 1회 정기 회의를 가지고 계열사 서비스 및 기술의 안전성을 기술윤리 관점에서 검토한다. 알고리즘 윤리 헌장 준수 여부와 위험성 점검, 알고리즘 투명성 강화 등을 위한 체계적 개선 업무를 수행하고 있다.

네이버 사옥./네이버 제공

네이버도 4일 AI 안전성 연구를 전담하는 ‘퓨처 AI 센터’를 신설한다고 밝혔다. 최수연 대표 직속 조직으로 수십명 규모로 꾸려졌으며 하정우 네이버클라우드 AI이노베이션 센터장이 수장을 맡았다.

퓨처 AI 센터는 AI 안전성을 높이기 위한 기술 연구를 통해 네이버 AI 윤리 정책을 수립하는 역할을 한다. 세계적으로 AI 안전성이 화두로 떠오른 상황에서 관련 연구 조직 신설이 필수적이라는 판단에서 센터를 설립했다는 게 네이버 측 설명이다.

네이버는 앞서 지난해 8월 차세대 LLM ‘하이퍼클로바X’를 공개하고, 검색 등 네이버 여러 서비스에 적용하고 있다. 올해부터는 하이퍼클로바X를 통해 B2B(기업간거래) 시장 공략을 본격화한다.

현재 국회에선 ‘AI 산업 육성 및 신뢰 기반 조성 등에 관한 법률안(AI 기본법)’이 통과를 앞두고 있다. 주무부처인 과학기술정보통신부는 올해 21대 국회 회기 종료 전 법안을 통과시킨다는 계획이다.

AI 기본법은 당초 AI 진흥에 초점을 맞춘 우선허용·사후규제 원칙을 적용하기로 했으나, 최근 AI로 인한 저작권 문제와 가짜뉴스, 고위험 AI 등의 규제가 약해질 수 있다는 이유로 이 부분이 삭제되거나 대폭 수정될 예정이다.

국가인권위원회는 지난해 “산업의 경제성·효율성만 따져서 AI 기술을 개발·활용할 경우, 사전·사후 평가 없이 개발·활용된 AI 기술이 국제 기준에 못 미치는 결과를 초래할 수 있다”고 AI 기본법에 대한 수정 의견을 냈다.

오픈AI, 구글, 마이크로소프트(MS), 메타, 아마존 등 글로벌 빅테크 기업들도 지난해 7월 공동으로 ‘AI 안전 서약서’를 발표하는 등 AI 안정성을 강조하고 있다.

유럽연합(EU)은 지난해 6월 유럽의회에서 세계 최초로 AI 규제 법안인 ‘EU 인공지능 법안’을 통과시킨 바 있다. 지난달 9일에는 고위험 AI 등 AI 위험 등급을 부여하는 등의 대책을 이 법안에 담아 합의했다.

미국도 지난해 10월 AI 안전성 평가 의무화, 개인정보보호 강화 등의 내용을 담은 행정 명령을 발표했다. 영국도 지난해 10월 G7(7국)을 비롯한 주요 국가 정부 고위 관계자와 테크 기업 임원, AI 전문가를 모아 첫 AI 안정성 정상회의(AI Security Summit)를 열었다. 한국은 내년 차기 AI 안정성 정상회의 공동 주최국으로 확정됐다.

김명주 서울여대 바른 AI 센터장은 “AI가 가짜 뉴스 등 여러 방법으로 악용된다는 것을 각 국 정부가 인지해 여러 규제가 만들어지고 있다”며 “관련 법안들이 AI 위험성을 제거한다는 목표도 있지만, AI 시장의 주도권을 놓치지 않으려는 측면도 있다”고 말했다.

그는 이어 “한국 IT 기업들도 장기적으로 국내 시장만 바라보고 AI를 개발하는 것은 아니기 때문에 글로벌 스탠더드에 맞추기 위해서라도 AI의 안전성과 윤리 체계를 구축하려는 것”이라고 덧붙였다.

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?