챗GPT의 거짓말, 대응책은…정부, 산학연과 AI윤리정책 만든다

김승한 기자 2023. 4. 7. 14:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

정부가 챗GPT로 확산된 초거대·생성AI(인공지능) 시대에 대응하고 AI 윤리와 신뢰성을 확보하는 것을 목표로 산·학·연 전문가들과의 논의를 본격화한다.

출범식에 참석한 엄열 과기정통부 AI기반정책관은 "초거대·생성형 AI가 빠르게 확산되고 있는 상황에서 무엇보다 기술 개발부터 활용의 전 단계에서 사회적 신뢰를 확보하는 것이 선행돼야 한다"며 "포럼을 통해 AI 윤리정책 방향에 관한 사회적 합의를 마련하는데 힘쓰겠다"고 말했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[머니투데이 김승한 기자]

챗GPT


정부가 챗GPT로 확산된 초거대·생성AI(인공지능) 시대에 대응하고 AI 윤리와 신뢰성을 확보하는 것을 목표로 산·학·연 전문가들과의 논의를 본격화한다.

7일 과학기술정보통신부는 KISDI(정보통신정책연구원), TTA(한국정보통신기술협회)와 서울 서초구 엘타워에서 '제2기 AI 윤리정책 포럼' 출범식을 개최하고 AI 윤리·신뢰성 확보를 위해 필요한 정책 방향을 토론했다.

또 앞으로 지속적인 포럼을 통해 관련 기술과 윤리 이슈에 대한 국내·외 동향을 살피고, 신뢰할 수 있는 초거대 AI가 개발·운영될 수 있도록 우리나라의 AI 윤리정책 방향을 제시하겠다는 뜻을 모았다.

포럼 위원장은 김명주 서울여대 정보보호학과 교수가 맡고, AI·철학·교육·법·행정 등 분야별 전문가를 비롯해 AI 산업계 종사자 등 총 30명이 포럼위원으로 활동한다.

포럼은 운영의 효율을 높이기 위해 3개의 전문분과위원회를 구성했다. 우선 '윤리분과'는 초거대·생성형 AI의 편향성, 허위정보 등 역기능 대응 방안, 책임성·투명성 확보 방안 등에 대해 논의한다. 아울러 'AI 윤리영향평가 프레임워크' 개발에 대한 의견수렴도 맡는다.

'기술분과'는 초거대·생성형 AI의 위험요소 도출, 신뢰성 확보를 위한 평가 데이터 구축, 기술 확보 방안 등 기술적인 쟁점을 논의한다. 또 'AI 신뢰성 검·인증 체계' 수립에 대한 의견수렴을 진행할 계획이다.

'교육분과'는 초거대·생성형 AI의 악의적 사용을 완화·방지하기 위한 윤리적 활용방안 등 교육 관련 쟁점을 논의하고, 일반인 대상 AI 윤리교육 콘텐츠 개발에 대한 의견수렴을 진행한다.

출범식에 참석한 엄열 과기정통부 AI기반정책관은 "초거대·생성형 AI가 빠르게 확산되고 있는 상황에서 무엇보다 기술 개발부터 활용의 전 단계에서 사회적 신뢰를 확보하는 것이 선행돼야 한다"며 "포럼을 통해 AI 윤리정책 방향에 관한 사회적 합의를 마련하는데 힘쓰겠다"고 말했다.

김승한 기자 winone@mt.co.kr

ⓒ 머니투데이 & mt.co.kr, 무단 전재 및 재배포 금지

Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?