"AI 윤리·신뢰성 확보"...과기정통부, AI 윤리정책 포럼 개최

김승한 기자 2023. 7. 5. 14:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

정부가 챗GPT로 확산된 초거대·생성형 AI(인공지능) 시대에 대응하고 AI 윤리와 신뢰성 확보를 위해 산·학·연 전문가들과 논의를 본격화했다.

과학기술정보통신부는 5일 서울 서초구 엘타워에서 정보통신정책연구원(KISDI)과 한국정보통신기술협회(TTA)와 '제2차 AI 윤리정책 포럼'을 개최했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

과학기술정보통신부 로고. /사진=과학기술정보통신부

정부가 챗GPT로 확산된 초거대·생성형 AI(인공지능) 시대에 대응하고 AI 윤리와 신뢰성 확보를 위해 산·학·연 전문가들과 논의를 본격화했다.

과학기술정보통신부는 5일 서울 서초구 엘타워에서 정보통신정책연구원(KISDI)과 한국정보통신기술협회(TTA)와 '제2차 AI 윤리정책 포럼'을 개최했다.

지난 4월 출범한 제2기 포럼은 산업계를 비롯해 윤리, 교육, 철학 등 다양한 분야의 전문가 30명이 위원으로 활동하고 있다. 포럼은 운영 효율을 높이기 위해 윤리분과, 기술분과, 교육분과 등 3개의 전문분과위원회로 구성됐다.

이날 포럼에는 분과별 생성형 AI 활용과 관련한 윤리적 쟁점들이 발표됐다. 또 윤리와 신뢰성을 담보하면서 초거대 AI의 활용을 촉진할 수 있는 방안에 대해서도 논의됐다.

윤리분과 세션에서 '법률서비스 분야에서의 생성형 AI 활용과 윤리적·법적 쟁점'이라는 주제로 발표에 나선 노태영 위원(김앤장 법률사무소 변호사)은 "개인에 대한 법률상담이나 기업 계약서 작성 등에 사용될 수 있는 생성형 AI는 민감한 정보를 처리하고 산출과정에 대한 설명이 어려워 이용자에 대한 안전성 및 책임성, 연대성 등이 고려돼야 한다"고 강조했다.

기술분과 세션에서 '신뢰 가능한 AI 구현을 위해 기업이 고민해야할 것들'이라는 주제로 발표에 나선 김지관 한국IBM 실장은 "기업이 데이터 및 AI 모델의 소유 및 사용주체를 명확히 하고 이에 대한 관리를 수행할 수 있도록 정부에서 가이드라인을 제시할 필요가 있다"고 말했다.

교육분과 세션에서 김기영 아티피셜소사이어티 대표는 "향후 교육 분야에서 생성형 AI 활용도가 높아질 것으로 예상되나 다른 영역에 비해 엄격한 윤리적 기준이 적용돼야 하므로 인간 전문가에 의한 감수 및 평가는 여전히 중요할 것"이라며 "특히 학습데이터의 진실성, 저작권 확보, 다양성 및 인간의 엄격한 검증이 필요하다"고 했다.

엄열 과기정통부 AI 기반정책관은 "AI가 주는 혜택과 함께 잠재적 위험성, 부작용에 대한 우려가 증가하는 상황에서 책임감 있는 AI 사용이 어느 때보다 중요해지고 있다"며 "이날 포럼에서 논의된 사항을 반영해 우리 기업이 자율적으로 AI 윤리·신뢰성을 확보할 수 있도록 가이드라인 제시 및 검증체계 마련 등 정부에게 요청한 사항에 대한 지원을 아끼지 않겠다"고 말했다.

김승한 기자 winone@mt.co.kr

Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?