노벨상 탄 AI 대부의 'AI 경계론'에...노벨상 환영하던 빅 테크들 긴장
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
존과 제프를 축하한다.
이날 노벨 물리학상을 수상한 존 홉필드 미국 프린스턴대 명예교수와 제프리 힌턴 캐나다 토론토대 교수는 AI 머신러닝(기계학습)의 기초를 세웠고 르쿤과도 함께 연구한 적이 있다.
하지만 유럽을 시작으로 점차 확산하고 있는 'AI 규제'가 힘을 얻는 게 아니냐는 관측도 나온다.
힌턴은 노벨상 수상 후 노벨위원회와의 첫 인터뷰에서도 "오픈AI 같은 기업이 안전 연구에 더 많은 비용을 투자하도록 정부가 강제할 수 있다"고 제안하면서 규제론을 고수했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
수상 직후 '안전성 규제' 주장
존과 제프를 축하한다. 둘 다 나의 전 동료였다.
얀 르쿤 메타 수석 인공지능(AI) 과학자
거대 기술기업(빅테크) 메타의 수석 인공지능(AI) 과학자를 맡고 있는 얀 르쿤 뉴욕대 교수가 8일(현지시간) 사회관계망서비스(SNS) 엑스(X·옛 트위터)를 통해 남긴 메시지다. 이날 노벨 물리학상을 수상한 존 홉필드 미국 프린스턴대 명예교수와 제프리 힌턴 캐나다 토론토대 교수는 AI 머신러닝(기계학습)의 기초를 세웠고 르쿤과도 함께 연구한 적이 있다. 르쿤과 힌턴은 '컴퓨터과학계의 노벨상'으로 불리는 튜링상을 2018년 함께 받기도 했다.
최근 이들의 관계는 미묘하다. 'AI 대부'로 불리는 힌턴이 지난해 10년 이상 몸담은 구글을 떠나면서 AI의 발전에 따른 위험성을 역설해 온 반면 르쿤은 이런 주장들이 지나친 비관론이라며 충돌했기 때문. 9월 힌턴이 캘리포니아주 의회가 마련한 '첨단 AI 시스템을 위한 안전 및 보안 혁신 법안(SB 1047)'에 지지를 보내자 르쿤은 직접적으로 "AI의 미래에 대한 왜곡된 견해"라고 비판했다.
(www.hankookilbo.com/News/Read/A2024100909010001956)
(www.hankookilbo.com/News/Read/A2023120110580005847)
낙관론·비관론 두 갈래로 나뉜 AI 개발자 진영
스웨덴 왕립과학원 노벨위원회가 AI 머신러닝의 기초를 확립한 공헌을 인정해 홉필드와 힌턴을 노벨 물리학상 수상자로 발표하자 AI 개발자들은 AI와 컴퓨터 과학의 가치를 인정받았다며 환영 메시지를 보냈다. 구글의 순다르 피차이 최고경영자(CEO)도 "수상 자격이 충분하다"고 축하했다.
하지만 유럽을 시작으로 점차 확산하고 있는 'AI 규제'가 힘을 얻는 게 아니냐는 관측도 나온다. 정보기술(IT) 업계에 따르면 AI 개발자들은 AI의 장래를 두고 크게 '비관론자(Doomer·두머)와 '낙관론자(Boomer·부머)의 두 갈래로 나뉘고 있다. 지난해 11월 오픈AI에서 샘 올트먼 최고경영자(CEO)가 쫓겨났다 복직하는 사건은 양측 대결 구도가 고스란히 드러난 사건으로 꼽힌다. 올트먼이 개발에 속도를 내고 위험성은 나중에 평가할 수 있다는 낙관론자인 반면 당시 올트먼의 해임을 주도했던 공동 창업자 일리야 수츠케버는 안전성을 중시해야 한다는 입장이었다. 수츠케버는 힌턴의 수제자로도 유명하다.
국회는 AI기본법 추진, 정부는 AI안전연구소 설치
비관론자의 대표격인 힌턴과 홉필드가 노벨상 수상 소감에서 AI의 가능성보다 위험성을 돋보이게 하는 입장을 드러내면서 업계로서는 긴장할 수밖에 없는 상황이다. 당장 지난달 빅테크들의 강력한 반대 속에서도 입법 문턱까지 갔던 SB 1407은 개빈 뉴섬 캘리포니아 주지사가 거부권을 행사했지만 불씨는 남아 있다. 힌턴은 노벨상 수상 후 노벨위원회와의 첫 인터뷰에서도 "오픈AI 같은 기업이 안전 연구에 더 많은 비용을 투자하도록 정부가 강제할 수 있다"고 제안하면서 규제론을 고수했다.
한국도 AI 규제의 기초를 마련하고 있는 시점에서 업계에선 '균형 있는 입법'이 중요하다는 의견이 나온다. 국회는 현재 AI의 진흥과 규제 양면을 모두 다루는 AI 기본법의 입법을 준비 중이고 정부는 11월 중 AI 안전연구소를 설치해 AI 때문에 생기는 위험성 문제를 집중적으로 다룰 예정이다. 김명주 서울여대 바른AI연구센터장 겸 정보보호학과 교수는 "규제도 중요하지만 차세대의 먹거리를 생각한다면 발전도 필요하다"면서 "기본법은 전체적 방향성을 정하고 저작권·개인정보 보호 등 분야 각각의 법률에서 세부 규제를 다루는 방식이 적절할 것"이라고 말했다.
(www.hankookilbo.com/News/Read/A2024092415210002585)
(www.hankookilbo.com/News/Read/A2024093016500005822)
인현우 기자 inhyw@hankookilbo.com
Copyright © 한국일보. 무단전재 및 재배포 금지.
- [단독] "김레아 손에 죽은 내 친구...두려워서 못한 진술, 이제라도 용기 내고 싶어요" | 한국일보
- 테무에서 샀다가 딱 한 번 입은 옷, 헌옷수거함에 버린다고요? | 한국일보
- 5만원 내고 결혼식장 가도 될까?···식비 상승에 축의금도 고민 | 한국일보
- [단독] 명태균 "빌려준 돈 받았다"던 6000만 원… 김영선 재산신고엔 '채무 0원' | 한국일보
- "거부해도 쫄지 마" 사실상 성범죄 조장하는 '픽업 아티스트'… 남성회원만 5000명 | 한국일보
- "꿈에 백종원이 등장해 요리법 알려줘"···20억 복권 당첨된 사연 | 한국일보
- '훈민정음 상주본' 숱한 반환 요구에도 요지부동…소유자 명예회복이 자진반환 열쇠? | 한국일보
- 숙대동문들 "文총장, 김건희 논문검증 속도 내라… 96% 지지 잊지 말아야" | 한국일보
- 윤 정부 흔드는 명태균 '입'... 김 여사 공천 개입 '스모킹건' 여부가 최대 관건 | 한국일보
- 단백질 비밀 푸는 데 결정적 기여한 AI… 노벨화학상까지 안았다 | 한국일보