과기정통부, 인공지능 위험성 판단기준과 규율방안 논의 세미나 개최

안호천 2022. 1. 25. 14:13
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

과학기술정보통신부가 '인공지능(AI)의 위험성 판단과 법적 과제'를 주제로 AI 법·인문사회·기술 분야 전문가가 참여하는 제4차 AI 법제정비단 공개세미나를 26일 개최한다.

이번 세미나에서는 지난해 4월 유럽연합(EU)이 제안한 'AI 법안'과 같은 세계적인 AI 규율 동향을 살피고 동 법안과 같이 AI 위험성을 분류해 그 수준별 의무를 부과하는 것이 좋을지, '고위험 AI'의 범위와 규제 수준은 어디까지일지를 다양한 사례를 바탕으로 논의한다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

사진=게티이미지뱅크

과학기술정보통신부가 '인공지능(AI)의 위험성 판단과 법적 과제'를 주제로 AI 법·인문사회·기술 분야 전문가가 참여하는 제4차 AI 법제정비단 공개세미나를 26일 개최한다.

이번 세미나에서는 지난해 4월 유럽연합(EU)이 제안한 'AI 법안'과 같은 세계적인 AI 규율 동향을 살피고 동 법안과 같이 AI 위험성을 분류해 그 수준별 의무를 부과하는 것이 좋을지, '고위험 AI'의 범위와 규제 수준은 어디까지일지를 다양한 사례를 바탕으로 논의한다.

EU에서 위험수준별 AI를 어떻게 분류하고 있는지, 금지되는 AI와 제품·서비스 출시에 일정 요건이 요구되는 고위험 AI를 중심으로 국내 산업 환경에 비추어 위험기반 접근방식의 적절성을 살펴본다.

잠재적 위험성에 대한 관리가 필요한 '고위험 AI'에는 무엇이 있고 어떤 의무사항을 통해 규율하는 것이 적절한지를 기술·산업의 발전과 신뢰성 확보의 측면에서 검토한다.

오병철 교수(연세대), 이근우 변호사(화우), 김병필 교수(KAIST), 하정우 연구소장(네이버), 남운성 대표(씨유박스)가 참여한다.

이번 세미나는 최근 코로나19 상황을 고려해 현장 참석 인원은 최대 80명 수준으로 제한되며, 인터넷 생중계(유튜브, 네이버TV)도 함께 진행한다.

박윤규 과기정통부 정보통신정책실장은 “AI가 사람의 생명과 신체, 기본권에 위해가 될 가능성이 있는 경우 적절한 규율 방안을 마련할 필요가 있다”며 “다만 AI 기술 자체는 중립적인 것으로 우리 삶에 다양한 혜택을 제공하는 등 무궁무진한 발전가능성을 제시하고 있는 바, 관련 기술과 산업 발전을 저해하지 않도록 구체적인 활용 사례를 중심으로 한 위험성 판단과 규제가 필요할 것”이라고 말했다.

과기정통부 주관으로 구성한 AI 법제정비단은 AI 법·제도·규제 관련 주요 이슈를 연구하는 전문가 협의체다. 지난 3월부터 제2기 활동을 출범해 총 4차례에 걸친 공개세미나를 개최하며 학계와 업계 국민의 의견을 수렴하고 있다.

안호천기자 hcan@etnews.com

Copyright © 전자신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?