[김승중의 아메리카 편지] 테크놀로지와 도덕

2024. 7. 8. 01:42
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

김승중 고고학자·토론토대 교수

지난주 서울시청역 부근에서 역주행 대형 교통사고로 9명이 사망한 참사가 있었다. 운전자가 주장하는 급발진 여부가 논쟁의 대상이 되고 있다. 한국교통안전공단의 자료에 의하면 연평균 30건의 급발진 신고가 접수되었지만 2017년부터 지금까지 인정된 사례는 한 건도 없다. 우리는 인공지능(AI) 시대로 접어들면서 인간의 오류를 최소화하는 방향으로 기술 발전을 촉진하고 있어 곧 자율주행자동차가 보편화하는 상황을 보게 될 확률이 높다. 이미 우리나라를 비롯한 세계 곳곳에서 무인 차량을 시험했고, 제한된 범위 내에서 실용화하기도 한다. 교통사고의 위험을 상당히 줄일 것이라는 평가가 보편적으로 인정되고 있지만, 사고가 났을 경우 누구에게 책임을 물어야 할지는 법률적으로 정해져 있지 않다. 더구나 급한 상황 판단을 해야 할 경우에 대비해 자율주행을 관할하는 소프트웨어를 어떻게 만들어야 할지에 대한 윤리적인 문제도 논란이 되고 있다.

승객과 보행자 중 누구를 우선 보호해야 하는가를 비롯해, 보행자들의 성별과 나이에 따라 희생 가능성을 계산해 판단을 내려야 할 때 누구를 택해야 하는가 등의 복잡한 딜레마들은 AI 개발 엔지니어들이 맞닥뜨리고 있는 현실이다. 그 유명한 ‘트롤리 딜레마(Trolley Dilemma)’가 더 이상 단순한 윤리 사고 실험 문제가 아닌 것이다. 게다가 이러한 딜레마의 해결책은 나라마다, 문화 배경에 따라 다를 수 있다. 최근 발표된 독일의 ‘자율주행차 윤리 가이드라인’이나 잇따라 우리나라에서 발표된 가이드라인은 ‘성별·나이·인종·장애 등을 이유로 인간을 차별하지 않아야 한다’고 규정하지만, 그것이 쉽지만은 않을 것이다.

AI는 궁극적으로 자기가 무엇을 모르는지를 모른다. 질문에 답할 뿐이다. 기술적 해결은 완벽한 답이 될 수 없다. 인간의 고귀한 노력을 제거해 보다 안전한 사회를 만들겠다는 발상 자체가 문제가 있는 것이 아닐까.

김승중 고고학자 토론토대 교수

Copyright © 중앙일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?