[프리미엄 리포트]윤리에 눈뜬 AI, 망각에 손 내밀다

이병철 기자 2021. 9. 11. 06:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인류는 조물주가 되기로 결심하면서 자신들을 닮은 인공지능(AI)을 만들어냈다. 그렇게 탄생한 AI는 인간의 전유물로 여겨지던 지능을 선물 받았고, 마치 인간처럼 생각하고 판단할 수 있게 됐다. 하지만 AI는 우리가 의도한 범위를 넘어선 영역에서까지 인간을 닮아갔다. 바로 망각이다. 한때 AI의 망각은 의도한 성능을 내지 못하게 막는 방해물로 여겨졌다. 하지만 반대로 AI의 망각을 축복으로 여기고 이를 활용할 방안을 고심하는 사람들이 생겨나고 있다.

지난 5월 13일 미국의 소셜미디어(SNS) 기업 페이스북 AI 연구소가 논문 사전등록 사이트 ‘아카이브’를 통해 한 편의 논문을 공개했다. 

AI의 망각에 관한 연구 내용이 담겨 있었다.연구팀은 AI에 학습시킬 데이터의 중요도에 따라 저장 기간을 부여하는 알고리즘을 채택했고, 시간이 지남에 따라 일부 데이터를 삭제하도록 했다. 마치 많은 이들이 바로 전날 일어난 일이라도 중요하지 않으면 쉽게 잊는 것처럼 말이다.
 

그간 망각이라는 개념은 생명체의 전유물이었다. 특히 인간의 망각이 주된 관심사였다. 과학자들은 기억과 망각의 뇌과학적 기전을 밝히기 위해 노력했고(1파트 참조), 철학자들은 인간에게 망각이 가지는 의미를 고찰했다. 최근에는 인간을 닮은 인공체, AI가 탄생하며 망각의 개념 또한 확장되고 있다.
 

 

파괴적 망각 │ 인공지능도 기억 잃는다

AI에서 처음으로 나타난 망각은 파괴적 망각(catastrophic forgetting)이라 불렸다. 이름에서 알 수 있듯이 무분별하고, 비의도적으로 중요한 것을 잊는 현상이었다. 사람으로 치면 점점 기억을 잃어가며 인지능력까지 상실하는 알츠하이머형 치매와도 비슷하다.

파괴적 망각은 앞서 학습한 데이터 작업과 다른 새로운 작업을 학습하는 과정에서 나타난다. 박용범 단국대 소프트웨어학과 교수는 “가령 고양이와 개의 사진을 학습해 이들을 구분할 수 있게 한 작업을 첫 번째 작업이라고 한다면, 여기에 토끼의 사진을 추가로 학습시켜 고양이와 개, 토끼를 구분하도록 하는 것이 두 번째 작업이 된다”며 “이렇게 처음 학습한 내용에 무언가를 추가해 학습시킨다면 파괴적 망각에 의해 AI 모델의 성능이 크게 떨어진다”고 말했다.

파괴적 망각이 발생하는 이유는 적응 결과를 뒤흔들어서다. 한 가지 작업을 반복적으로 학습해 알고리즘을 이에 적응시켰는데, 새로운 요소가 도입되면 작업에 필요한 가중치가 바뀐다. 고양이와 개를 구분하려면 이 두 생명체의 가장 큰 특징을 우선적으로 파악해야 한다. 여기에서 토끼까지 구분하기 위해 학습을 하면 새로운 특징을 찾고 가중치를 재배치해야 한다. 과거 학습된 가중치가 바뀌며, 결국 AI는 고양이와 개를 구분하는 법을 잊게 된다.

이는 단순히 컴퓨터에 저장된 데이터가 유실되는 현상과는 다르다. AI는 주어진 문제를 해결하기 위해 학습한 데이터를 바탕으로 자신만의 논리를 만든다. 바둑 기사들의 기보를 바탕으로 바둑을 배운 알파고가 전혀 새로운 형태의 바둑 전술을 만들어낸 것이 대표적인 사례다. 만약 알파고에서 데이터 삭제 또는 유실이 발생한다면 학습한 바둑 기사의 기보가 사라지는 정도일 것이다. 이에 반해 파괴적 망각은 바둑을 두는 방법 자체를 잊는 것과 비슷하다.

그렇기에 AI 연구에서 파괴적 망각은 반드시 해결해야 할 문제다. 2010년대 이후 급격한 기술의 발전과 함께 연구자들은 범용 AI(AGI·Artificial general intelligence)를 개발하려 시도했다. 한 가지 기능에 특화된 모델이 아니라 마치 인간처럼 학습한 모든 분야에서 복합적 사고를 할 수 있는 AGI를 개발한다면 미래 사회를 바꿀 기술이 될 것으로 기대를 모았다. AGI를 구현하려면 가능한 모든 데이터를 학습시켜야 하지만, 단번에 이들을 학습시킬 수는 없다. 그래서 연구자들은 마치 거대한 성을 쌓기 위해 하나씩 기둥을 세우듯, 하나의 기능을 갖춘 AI 모델을 온전히 완성하고 이를 확장하거나 기능을 추가해 나가는 전략을 취했다.

하지만 파괴적 망각은 AGI의 탄생을 꿈꾸던 연구자들의 기대를 무너뜨렸다. AI는 새로운 데이터를 학습하는 만큼 이전의 기억을 잃어버렸다. AI가 머지않아 인간을 뛰어넘을 수 있을 것이라는 예상은 빗나갔다.

범용 인공지능 │ 망각의 벽 너머에서

연구자들은 파괴적 망각을 피하기 위한 방법을 모색했다. 가장 널리 활용된 방법은 처음부터 여러 작업을 학습시키는 것이다. 완성된 하나의 문장에 새로운 내용을 추가하거나 수정하는 대신, 아예 처음부터 한 글자씩 새 종이에 옮겨적는 것에 비유할 수 있다.

이 방법은 여러 종류의 작업이 가능한 AI를 만들 수 있지만, AGI를 실현하기 위해 너무 많은 자원을 투입해야 한다는 단점이 있다. 매번 새로운 작업을 학습시킬 때마다 필요한 데이터가 기하급수적으로 증가하고, 그만큼 요구되는 자본과 시간도 늘어간다. 이 방법으로 AGI를 달성하려면 얼마나 많은 시간이 걸릴지 알 수 없다.

반복 학습을 통해 파괴적 망각을 극복하는 방법도 있다. AI에서는 ‘순차적 반복 학습’이라고 부른다. 우등생의 공부 비법으로 늘 소개되는 ‘교과서 위주의 예습과 복습’을 철저히 하는
것과 비슷하다.

이 개념은 알파고를 개발한 딥마인드에서 2016년 발표한 ‘통합 탄성 중략(EWC)’에서 비롯됐다. 두 작업의 가중치를 사전에 확인한 후 해당 가중치를 해치지 않는 선에서 다음 작업을 학습시키는 방법이다. 가중치의 이동을 인위적으로 제한한 상태에서 학습을 진행하면서 AI의 성능은 기대치를 밑돌았다.

순차적 반복 학습은 이 단점을 극복하기 위해 탄생했다. 가중치의 변화는 어느 정도 인정한 상태에서 두 가지 작업을 반복적으로 학습시키는 방법이다. 반복적으로 학습하면서 가중치는 두 가지 작업 모두에 적합하도록 적응한다.

최동빈 단국대 소프트웨어학과 연구원은 “순차적 반복 학습을 통해 2~3가지 작업을 효율적으로 학습시킬 수 있다는 사실은 확인했지만, 이 방법 또한 수많은 작업을 학습시키기에는 적합하지 않을 수 있다”며 “여러 연구가 이뤄지고 있지만, 아직 그 어떤 방법도 파괴적 망각을 온전히 피해갈 수는 없는 게 현실”이라고 설명했다.

파괴적 망각은 AI 연구의 방향성마저 바꿨다. 박 교수는 “많은 이들이 AI 기술이 보여줄 찬란한 미래를 꿈꾸지만 파괴적 망각의 사례처럼 여전히 해결해야 할 문제가 산적해 있는 상황”이라며 “최근에는 AGI 개발과 함께, 각각 목적에 맞는 여러 개의 모델을 결합해 문제를 해결하는 방식이 더 활발히 연구되는 추세”라고 말했다.

의도적 망각 │보다 나은 AI를 위해 잊는다

독일의 AI 분야 학술지 ‘인공지능’은 2019년 3월호를 특별호로 구성했다. 주제는 ‘의도적 망각(intentional forgetting)’. 크리스토프 베이얼 독일 하겐대 수학 및 컴퓨터과학부 교수는 사설에서 “컴퓨터 과학에서 망각은 학술적· 정책적으로 필요하다”며 “이는 기술적으로 필요해서일 뿐만 아니라 ‘잊힐 권리’에 대해 논의한 결과”라고 설명했다.

AI 기술은 빅데이터와 함께 성장했다. 마치 인류가 종이와 문자를 발명하며 쌓은 지식이 현재의 문명을 만드는 원동력이 된 것처럼 말이다. 데이터의 양이 점점 늘어날 때마다 AI의 성능은 급격히 발전했고, 활용 범위는 더 확장됐다. 하지만 이에 따른 문제점도 함께 등장했다.

AI 개발에 요구되는 데이터의 증가는 경제적, 시간적 비용의 상승을 의미한다. 빅데이터를 학습시키기 위해 더 큰 데이터센터가 건설되고, 데이터를 정제하기 위한 시간과 학습에 필요한 전력은 계속해서 늘어갔다.

한번 학습된 데이터는 사라지지 않기에 윤리적인 문제도 부각됐다. 일부의 경우 사용자도 모르는 사이에 자신의 모든 정보가 데이터의 형태로 기록돼 AI의 학습 재료가 됐다. 대표적인 사례가 올해 초 국내에서 사회적 이슈로 떠올랐던 이루다 사태다. 챗봇 AI 이루다를 개발하는 과정에서 일부 사용자가 인지하지 못한 상태로 개인정보가 개발사에 제공됐다. 그 결과 이루다는 학습 과정 중에 알게 된 개인의 주소, 계좌번호 등 다양한 정보를 대화로 노출했다. 심지어 이루다가 학습한 데이터 속에 섞여 있던 편향성은 소수자 차별과 성희롱 등으로 표출됐다.

비슷한 사례가 전 세계 다양한 AI 모델에서 나타났다. 이에 일부 연구자들이 의도적 망각을 도입할 필요성을 제기했다. 의도적 망각은 AI가 이미 학습한 데이터 중 일부를 삭제하는 것이다. 의도한 데이터를 특정해 잊게 만들 수 있어, 이미 개발된 AI에서 불필요한 개인정보나 편향된 데이터를 제거할 방안으로 논의되고 있다.

의도적 망각을 구현하는 기술은 이제 막 움트고 있다. 페이스북은 AI가 학습할 데이터의 중요도에 따라 ‘기억 기간’을 부여하는 방법을 도입했다. ‘익스파이어스팬(expire-span)’이라 는 이 기술은 인간의 장기 기억 방식을 모방했다. 인간의 두뇌는 기억을 저장할 때 기억마다 우선순위를 부여한 뒤 중요한 기억을 장기 기억으로 분류한다. 익스파이어스팬 또한 데이터의 사용빈도 등을 분석해 중요도가 높을수록 긴 시간 기억하고 중요하지 않은 데이터는 빠르게 삭제시키는 알고리즘을 채택했다. 사인바야르 수크바타 페이스북 AI 연구소 연구원은 아카이브 공개 논문에서 “AI가 학습하는 모든 데이터의 가치가 같은 것은 아니다”라며 “익스파이어스팬 기술을 활용하면 AI 모델을 학습시키는 데 필요한 시간과 데이터의 양을 획기적으로 줄일 수 있다”고 설명했다.

2015년 독일 연구협회(DFG)는 18개의 학제간 우선 연구 프로그램을 발표하며 그중 하나로 의도적 망각을 꼽았다. 심리학과 경영학 등 다양한 분야에서 활용될 AI 기술을 위해 의도적 망각 기술과 개념에 대한 연구를 지원하겠다는 뜻이다. 이후 의도적 망각을 구현하기 위한 보조 시스템인 ‘데어투델(Dare2Del)’, 망각 알고리즘 개발 프로젝트인 ‘페이드(FADE)’ 등이 본격적으로 연구되기 시작했다.

AI의 출발점에서 파괴적 망각은 연구자들을 괴롭히는 기술적 문제였다. 보다 인간을 닮은, 더 똑똑한 AI를 개발하기 위해서는 극복해야 했다.

십수 년이 지나 AI 기술은 발전을 거듭했고, 새로운 기술적 한계와 윤리적 문제에 부딪혔다. 이번에는 해결책 중 한 가지로 망각이 떠올랐다. AI가 망각을 받아들이면서 펼쳐질 미래는 아직 예상하기 어렵다. 다만 많은 이들이 꿈꿔왔던 것처럼 AI가 인간에 한층 더 가까워진 것만은 분명해졌다. AI의 망각이 이제 기술의 영역이 아닌 윤리와 사회의 영역에서 함께 논의될 것이라는 사실도 명확해졌다.

▼이어지는 기사를 보려면?

과학동아 9월호

Intro. 인간다움을 위한 선택, 망각

Part1. ‘이불킥’ 하신 분 어서 오세요, 기억 지워드립니다

Part2. 윤리에 눈뜬 AI, 망각에 손 내밀다

[이병철 기자 alwaysame@donga.com]

Copyright © 동아사이언스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?