“그래픽처리장치를 혁명의 주인공으로 만들었다”...갓비디아로 만들어준 ‘이 남자’ [위클리반도체]
다층 퍼셉트론 ‘알렉스넷’ 개발
GPU 활용, AI 오류율 크게 낮춰
2010년 개발 GTX 580 두대로
AI 경진 대회서 우승 차지해
이처럼 인공지능은 한 사람의 힘만으로 어느 날 갑자기 뚝 하고 발명된 것이 아닌데요. 잠시 1978년으로 돌아가 보겠습니다. 당시에 인공지능 학계에는 두 가지 조류가 있었습니다. 하나는 알고리즘과 같은 숫자만 있다면 모든 것을 구현할 수 있다고 믿는 ‘기호주의 학파’, 또 다른 하나는 인간 두뇌를 모방하면 AI를 구현할 수 있다고 믿는 ‘연결주의 학파’가 그것입니다. 청년 힌턴은 이런 시대에 살았습니다.
그는 매우 다양한 분야에 관심이 많았습니다. 케임브리지대에서 생리학과 물리학을 전공했고 에든버러 대학원에서 철학과 심리학을 전공했습니다. 박사학위는 크리스토퍼 롱겐 히긴스 교수 아래에서 인공신경망으로 받았는데요. 롱겐 히긴스 교수는 에든버러대에 처음으로 인공지능학과를 창설한 인물이기도 합니다.
미국에서 그를 반겨 준 것은 UC샌디에이고대였습니다. 당시 수학자이자 심리학자인 데이비드 러멜하트 교수가 병렬 분산 처리를 연구하는 PDP그룹을 이끌고 있었고, 힌턴은 이곳에 합류해 활동했습니다. 러멜하트는 맥클러랜드와 함께 1986년 《병렬분산처리》라는 두 권의 책을 발간한 인물인데요. 지금은 고전이 된 다층 학습을 위한 이론서로 꼽힙니다.
힌턴이 보기에 물리학은 세상을 이해하는 데 있어 너무 단순했고, 생물학은 너무나도 복잡했습니다. 물리학은 힘을 설명하는 데 유용했지만, 두뇌 회로처럼 목적을 가진 생물을 설명할 순 없었습니다. 그래서 힌턴을 주축으로 새로운 학파가 결성됩니다. 이름하여 연산 신경과학(Computation neuroscience)이라는 새로운 사조입니다. 이들은 1950년대 태동한 신경생물학으로부터 큰 영향을 받았습니다. 당시 하버드대 의학대학원은 살아있는 고양이의 망막으로 들어온 빚(광점)이 뉴런에 전달되고, 뉴런이 극파(가시처럼 뾰족한 형태의 파형)를 발생하는 과정을 기록하는 데 성공했는데요.
힌턴은 이후 인공지능이 살상 무기로 이용될 수 있다는 이유로 캐나다로 넘어가 토론토대에서 교편을 잡습니다. 그리고 힌턴과 오픈AI의 공동창업자 일리야 수츠케버를 포함한 제자들은 퍼셉트론에 주목합니다. 퍼셉트론은 1957년 프랭크 로젠블랫이 만든 세계 최초의 인공신경망입니다. 힌턴은 퍼셉트론이 실패한 원인을 인풋유닛인 노드(인간의 뉴런에 해당)가 하나뿐이라는 사실에서 찾았습니다. 그래서 여러 층을 쌓는 다층 구조와 이를 효율적으로 연산할 수 있도록 하는 역전파 방식을 연구해 발표했습니다. 이름하여 다층 퍼셉트론으로 불리는 MLP(Multi-Layer Perceptron)를 개발한 것입니다.
다층 퍼셉트론은 노드를 여러 층(레이어)으로 구성한 인공 신경망인데요. 이러한 방식은 복잡한 패턴까지 학습할 수 있었으며, 잡음이 많은 데이터를 처리하는데 탁월한 성능을 보여줬습니다. 물론 이 같은 모델이 만능은 아닙니다. 모델이 크고 복잡할 경우 속도가 느려졌고, 학습하지 않은 새 데이터가 입력됐을 때 오류가 일어나는 과적합(Overfitting) 문제를 일으키기도 했습니다. 하지만 곧 힌턴과 그의 연구진은 드롭아웃(Drop out) 방식을 개발해 이를 해결했습니다. 인공신경망은 때때로 특정 노드에 대해 과도하게 의존하는데, 임의로 특정 노드를 끌 경우 오류를 10% 줄일 수 있는 사실을 발견한 것입니다. 이 역시 우리 두뇌를 모방한 것입니다. 우리 두뇌에 있는 시냅스는 과도한 정보가 들어올 경우 스스로 드롭아웃을 합니다.
힌턴은 여기서 그치지 않았습니다. 인공지능 네트워크에서 인풋과 아웃풋을 되먹여 피드백하는 순환신경망(Recurrent neural network·RNN)과 연산을 통해 이미지로부터 필요한 특징을 스스로 학습할 수 있는 신경망인 합성곱신경망(Convolution Neural Network·CNN)을 잇따라 개발해 냈습니다. 이런 모델 덕분에 음성인식이나 자연어처리 같은 시간 정보 처리가 필요한 문제들 실마리를 찾기 시작한 것입니다.
리는 2007년 이미지넷(Image Net)이라는 프로젝트에 돌입합니다. 2년 뒤 그와 연구진들은 1500만장에 달하는 이미지를 모으는 데 성공했고 이를 모두 2만2000개 범주로 분류했습니다. 그리고 리는 이처럼 막대한 이미지 데이터베이스를 세상에 공개했습니다. 학자들은 이미지넷을 활용할 수 있었습니다. 그리고 리는 이어 인공지능 경진대회를 열었습니다. 어떤 인공지능의 이미지 인식 오류율이 낮은지 판별하는 대회였습니다. 무작위로 추출된 수많은 이미지를 보고 인공지능이 무엇인지 답변을 하는 대회로, 컴퓨터비전의 올림픽이라고까지 불렸습니다.
힌턴과 그의 제자인 수츠케버는 뉴럴 네트워크에 필요한 병렬연산에는 그래픽처리장치(GPU)가 보다 효과적이라는 사실을 간파했습니다. 그래서 만든 것이 알렉스넷(AlexNet)입니다. 이들은 2012년 이미지넷 대회에 알렉스넷을 들고 출전합니다. 그리고 알렉스넷은 이미지 인식 오류율 16%로, 그해 대회에서 당당히 1등을 차지합니다. 그 이전 대회 우승팀의 이미지 인식 오류율이 26~28%에 달했던 점을 고려하면, 엄청난 성장이었습니다. 그 이전만 하더라도 남성과 여성 사진을 컴퓨터에 보여주면 4장 중 1장이 틀렸는데 알렉스넷 태동 이후 오류율이 획기적으로 낮아진 것입니다. 그 이후 인공지능은 2015년 사람을 처음으로 능가했습니다. 당시 1위였던 알에스넷(ResNet)의 오류율은 고작 3.6%에 불과했습니다.
힌턴과 제자들이 사용한 GPU는 2010년 엔비디아가 개발한 GTX 580이었습니다. 해당 모델은 고사양 게임과 컴퓨팅 작업을 위해 설계된 제품입니다. GTX 580은 페르미(Fermi) 아키텍처를 기반으로 했는데요. 512개의 CUDA 코어, 772MHz의 코어 클럭, 1.5GB의 GDDR5 메모리를 탑재했습니다. 힌턴과 제자들은 이미지넷 대회에서 단 두 개의 GTX 580 GPU를 병렬로 사용했습니다. GTX 580를 인공 신경망에 활용한 것을 계기로, 오늘날 수많은 연구자와 학자들이 GPU를 학습과 추론에 사용하고 있습니다. 엔비디아는 그 이후 나날이 성장했고 2022년 챗GPT가 등장하면서 AI 데이터센터 시장을 독점하기 시작했습니다.
14년간 GPU의 연산속도는 크게 달라졌습니다. GTX 580은 약 1.5 테라플롭스(TFLOPS)의 단정밀도(FP32) 성능을 보여주지만, 최신 컴퓨팅 플랫폼인 블랙웰 B200은 최대 20페타플롭스(PFLOPS)의 연산 성능을 자랑합니다. 초당 약 20경번씩 연산을 하는 괴물 같은 성능입니다. 연산 성능이 14년 만에 무려 1만3000배 이상 향상된 것입니다.
Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지
- 은지원 “3일 내내 울었다”, 서장훈도 눈물…펫로스 증후군 뭐길래 - 매일경제
- “대게 2마리 37만원”…‘큰절 사과에도 바가지’ 소래포구, 대박 터진 이유는 - 매일경제
- ‘착한가격’ 성심당, 또 일냈다…이번에 내놓은 가성비 끝판왕 신제품은? - 매일경제
- “새 고용주와 함께 체포”…무단이탈 ‘필리핀 이모님’ 2명, 어디서 일했나 알아보니 - 매일경
- “얼마나 야하길래, 그것도 수녀끼리”…관객 구토 쏟아진 이 오페라 - 매일경제
- “키도 너무 크고 가장 눈길 가”…기안84, 女배우와 뜻밖의 ‘묘한 케미’ - 매일경제
- 5만원권을 5천원권으로 착각한 어르신…택시기사에 “ 돌려주세요” - 매일경제
- ‘남남’ 최태원·노소영 나란히 앉아…이재용·구광모 재계 회장 총출동한 이 결혼식 - 매일경
- 애 안가지려던 한강, 마음 바꾸게한 ‘남편의 감동 한마디’ - 매일경제
- 김하성, 류현진-이정후 고친 의사에게 어깨 수술 받았다 - MK스포츠