콕스웨이브, 이기민 카이스트 교수 영입…"안전한 AI 생태계 조성"

최유리 2024. 9. 10. 10:01
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

콕스웨이브는 인공지능(AI) 안전성과 AI 정렬(Alignment) 분야의 연구를 주도하는 이기민 카이스트 교수를 어드바이저로 영입했다고 10일 밝혔다.

이기민 어드바이저는 "AI 안전성에 대한 논의가 활발해지는 가운데 연구 및 논의에 그치지 않고 이를 적용하여 더 나은 제품을 제공하고자 하는 콕스웨이브의 사업 방향성과 가치관에 공감해 합류를 결정했다"며 "모든 기업과 소비자가 안심하고 AI 제품을 이용할 수 있도록 연구 및 제품 개발에 기여하겠다"고 말했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 안전성 및 AI 정렬 전문가

콕스웨이브는 인공지능(AI) 안전성과 AI 정렬(Alignment) 분야의 연구를 주도하는 이기민 카이스트 교수를 어드바이저로 영입했다고 10일 밝혔다.

이기민 콕스웨이브 어드바이저 [사진=콕스웨이브]

이기민 어드바이저는 국제머신러닝학회(ICML)와 신경정보처리시스템학회(NeurIPS), 국제표현학습학회(ICLR) 등 세계 AI 분야 최고 수준의 학회에서 논문을 다수 게재하고 워크숍을 주최한 차세대 연구자다. 신진우 카이스트 석좌교수의 지도 아래 박사 학위 취득 후 AI 강화학습 분야의 권위자인 UC 버클리의 피터 아빌 교수 연구실에서 박사후 과정을 수료했다. 이후 구글 리서치 소속 리서치 사이언티스트를 거쳐 현재 김재철 카이스트 AI 대학원에서 부교수로 재직 중이다.

콕스웨이브는 이번 어드바이저 선임으로 AI 제품 분석 플랫폼 '얼라인 AI'의 안전성을 강화하고 나아가 안전한 AI 생태계 조성에 앞장선다는 계획이다. 이 교수는 안전한 AI 개발을 위해 AI 모델이 잘못된 결과물을 냈을 때 인간이 피드백을 주며 강화 학습을 시키는 RLHF(Reinforcement learning from human feedback)를 지속 연구해왔다. 이 같은 연구 방식을 '얼라인 AI'에 적용해 AI 시스템이 겪을 수 있는 주요 위험 및 악용 사례를 식별하고 AI 모델의 취약점을 보완할 예정이다.

이기민 어드바이저는 "AI 안전성에 대한 논의가 활발해지는 가운데 연구 및 논의에 그치지 않고 이를 적용하여 더 나은 제품을 제공하고자 하는 콕스웨이브의 사업 방향성과 가치관에 공감해 합류를 결정했다"며 "모든 기업과 소비자가 안심하고 AI 제품을 이용할 수 있도록 연구 및 제품 개발에 기여하겠다"고 말했다.

최유리 기자 yrchoi@asiae.co.kr

Copyright © 아시아경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?