[김대식의 미래 사피엔스] [61] 데이터가 없는 시대
챗GPT 같은 생성형 인공지능을 가능하게 한 “거대 언어 모델”(LLM)에서는 학습에 사용된 모델과 데이터의 크기가 결정적 역할을 한다. 모델과 데이터가 커지면 커질수록 성능이 향상된다는 말이다. 그것도 단순히 기능이 더 좋아지는 것이 아니라, 작은 모델은 본질적으로 풀 수 없었던 문제를 초거대 모델은 쉽게 해결하기 시작한다. 덕분에 실리콘밸리 빅테크들 사이에선 LLM ‘치킨게임’이 벌어지고 있다. 수십 조를 투자해 경쟁사보다 더 큰 모델을 만들고 더 많은 데이터를 학습시켜야 한다는 말이다.
그런데 여기서 세 가지 문제가 생긴다. 우선 LLM 학습에 필수인 GPU 확보가 큰 문제다. 가장 최근 출시된 1조 크기 거대 언어 모델 학습에는 1만대 이상 GPU가 필요하고, 5년 후 등장할 100조 LLM은 GPU가 수백만 개 필요할 거라고 예상한다. 둘째 문제는 전력이다. 1조 변수를 가진 LLM은 거의 1GW, 그리고 100조 모델은 100GW 정도 전력이 필요할 수 있다. 탄소 배출량도 문제지만, 그 많은 전력을 어떻게 확보할지도 문제다.
마지막으로 학습에 사용 가능한 데이터가 최근 부족해지기 시작했다. 인류는 천문학적으로 많은 데이터를 만들어냈고, 지금도 여전히 만들고 있다. 하지만 최근 등장한 LLM들은 인터넷에 올라온 데이터를 대부분 이미 사용했다. 앞으로 비공개 데이터까지 사용할 수는 있지만, 지금보다 100배, 1000배 큰 LLM 학습은 어려워 보인다. 그렇다면 생성형 인공지능을 사용해 LLM 학습에 필요한 새로운 데이터를 만들어낸다면? 최근 연구 결과에 따르면 AI로 생성된 데이터는 LLM 학습에 치명적인 오류를 만들어낼 수 있다고 한다.
인간의 노동 대부분을 인공지능이 대체할 수 있는 미래 사회. 그런 시대에 인간은 어떤 일을 할 수 있을까? 더 뛰어난 인공지능을 학습시키기 위해 새로운 이야기를 만들고, 새로운 춤을 추고, 새로운 노래를 부르는 것이 미래 인류가 허락받은 유일한 ‘노동’이 될 수도 있겠다.
Copyright © 조선일보. 무단전재 및 재배포 금지.
- 비트코인은 사기라던 트럼프 “금처럼 비축”
- 빼빼로인줄 알고 샀는데 콘돔…제조사 “물의 일으켜 죄송”
- ‘성남 FC’ 재판장 “직무대리 검사 나가라”...검찰 “적법한 제도” 반박
- 김포공항~여의도 15분 드론택시 내후년 뜬다
- 尹 대통령 선물받은 투르크 국견 해피·조이, 관저 떠나 서울대공원으로
- ‘역대 최악 1순위’라던 KT 박준영, 정관장 맞아 데뷔 후 최다 20득점
- 동대문구 1층 여관에서 화재 … 2명 중상·2명 경상
- [만물상] 비만 기준 변화
- 서학개미 “땡큐! 트럼프”... 테슬라로만 나흘만에 6조 번 셈
- 수퍼볼 첫 3연패 도전 캔자스시티, 9전 전승 순항