[과학이야기] 인공지능 시대, 휴먼포에버

전인영 부산연구개발특구본부 연구원 2022. 12. 20. 18:50
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

"인간의 학습·추론·지각능력, 자연언어의 이해능력 등을 컴퓨터 프로그램으로 실현한 기술."

이 기술은 무엇일까? 바로 인공지능(AI)이다.

위의 정의처럼, 완벽하지 않은 인간의 능력을 컴퓨터로 실현한 AI 기술.

이러한 책임 소지를 정하는 것은 기술개발과는 다른 아주 중요하고 실질적인 문제이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

전인영 부산연구개발특구본부 연구원

"인간의 학습·추론·지각능력, 자연언어의 이해능력 등을 컴퓨터 프로그램으로 실현한 기술."

이 기술은 무엇일까? 바로 인공지능(AI)이다. 챗봇, 스마트 스피커, AI면접처럼 이미 인공지능은 우리의 삶 깊숙이 스며들고 있다.

부산의 자율운항선박, 대구 자율주행차, 광주 AI센터 등 전국의 연구개발특구에서는 각 특구별 특화분야와 결합된 AI 미래기술들이 개발되고 있다. 위의 정의처럼, 완벽하지 않은 인간의 능력을 컴퓨터로 실현한 AI 기술. 그 불완전함은 어떤 문제를 가져올까?

신기술을 개발할 때, 발생하는 새로운 문제를 미리 예측하는 것은 중요하다. 인공지능은 인간과 다르게 생명이 없고, 자신이 한 행위에 대한 책임을 질 수 없다. 이 두 가지 다른 점은 풀기 어려운 숙제를 만들고 있다.

첫 번째, 인간도 하기 어려운 생명에 대한 가치판단의 문제이다. '정의란 무엇인가(마이클센댈 저)'의 일화는 이러한 생명에 대한 가치판단이 어떠한 문제로 다가올지를 잘 보여주고 있다. '당신은 빠르게 달리는 기차의 기관사다. 갑자기 눈앞에 두 개의 갈림길이 나오고, 둘 중 하나를 선택해야한다. 한쪽에는 어린아이가, 다른 쪽에는 노인이 서있다. 기차를 멈추기에는 이미 너무 늦었다. 누구를 살릴 것인가? 누구를 죽일 것인가?.'

사람에게 물어보면 각자의 도덕적 판단을 기준으로, 저울질하기 힘든 생명의 가치를 판단하며 노인과 아이 중 살릴 대상을 선택한다. 만약에 저 기차가 사람이 아닌 AI가 운전하는 자율운행 기차이고, AI는 일관된 기준으로 이와 같은 불가피한 상황에서 노인만을 죽인다면? 혹은 아이만을 죽인다면? 이러한 AI의 가치판단 행위와 판단 알고리즘이 공개됐을 때 논란은 누구도 감당할 수가 없을 것이다. 어느 누가 감히 생명을 저울질해 AI를 프로그래밍 할 수 있을까?

두 번째, 사고가 일어났을 때 행위대상과 책임대상 불일치의 문제다. 완전 자율주행차가 인명사고를 일으켰을 때, 책임을 누가 질 것인가 하는 논제는 행위와 책임 대상 분리의 문제를 깊이 생각하게 해준다. '당신은 자율주행차를 사서 목적지를 향해 가고 있다. 운전도 안하고, 차 뒤에서 그저 누워서 잠을 자고 있을 뿐. 그런데, 갑자기 쿵 하고 큰소리가 났다. 맙소사, 사람이 죽어 있다. 자동차 결함의 문제가 아니다. 그럼 이 사고의 책임은 누가 져야할까? 운전하지 않았지만 차량을 소유한 사람? 아니면 자동차를 만든 사람? 혹은 이러한 자율주행차를 도로위에 달리게 한 국가?.'

현재 반자율주행차, 혹은 운전자는 교통사고에 대해 자신이 직접 책임을 진다. 그리고 인간은 자신이 한 행위에 대한 책임을 지는 것에 대해서 별 다른 이의를 제기하지 않는다. 완전자율주행차는 인간 스스로 운전하지는 않았지만 사고가 날 수 있다.

그런데, 운행주체인 AI가 처벌대상이 될 수 없다. 행위자와 책임 대상의 불일치, 그리고 그 책임 대상이 정해지지 않은 모호한 상황. 이러한 상황에서 회사가 책임을 져야 한다면 회사는 차를 판 이득보다 인명사고가 났을 때 발생하는 손해가 더 클 것이다. 사람은 운전을 안하고 편한 것보다, 사고 발생시 져야 하는 책임 소지 때문에 자동차를 타기가 부담스러울 것이다. 이러한 책임 소지를 정하는 것은 기술개발과는 다른 아주 중요하고 실질적인 문제이다. 어느 누가 이러한 책임소재를 정할 수 있을까?

딥러닝을 한 챗봇이 인간의 나쁜 습관을 그대로 배워, 심한 욕을 사용해 논란이 된 적이 있다. 알파고는 바둑판위에서 바둑돌들을 죽이고 살리지만, 그 대상이 사람이 되어서는 안 될 것이다. 인공지능 시대, 기술 상용화 검토 최상위에는 언제나 도덕·윤리·공정 가치 판단이 있다. 인류를 위한 기술이 오히려 인류를 해하여서는 안 될 것이다. 인공지능 기술 발전은 언제나 사람을 향해야 한다.

Copyright © 대전일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?