본문 바로가기

뉴스

광차 문제? AI 자율주행차는 딜레마의 상황에서 윤리적으로 생각할 수 있을까?

이번에는 AI 중에서도 요즘 인기 있는 자동 운전에 대해서,"광차 문제"라는 딜레마를 생각하고 보고 싶습니다. 

인간이 운전하는 것과 컴퓨터가 운전하는 자동 운전에서 어느 쪽이 사고가 줄어 들까요?

이것은 틀림없이 AI에 의한 운전이라고 합니다. 그러나 안타깝게도 AI의 자동 운전을 가지고도 불가피한 사고라는 것은 존재하고 교통 사고를 0으로 하기에는 어렵다고 생각되고 있습니다. 그런 때 컴퓨터가 내릴 윤리적인 판단은 어느 쪽인가라는 문제입니다.



그런데, 광차 문제의 딜레마는 다음과 같은 문제입니다. 선로를 달리던 광차가 제어 불능으로 빠졌어요. 이대로는 전방에서 작업 중인 5명은 맹의 광차에 역살 하다 됩니다. 그러나 당신의 앞에는 선로 분기기가 있습니다. 당신이 광차의 진로를 변경하면 5명을 구하는데 전환 지난 별로선에서도 한명이 작업하고 있으므로, 5명이 살고도 그 하나는 광차에 치여서 버립니다. 그런데, 당신은 광차를 별도 노선에 끌어들여야 할까요? 


즉 광차 문제는 단순히 "5명을 돕기 때문에 다른 한명을 죽여도 좋은가" 라는 문제 제기입니다. 공리주의에 의거한다면 인간 5명의 목숨이 한 생명의 5배의 무게가 있으므로 한명을 희생하고 5명을 도와야 합니다. 그러나 의무론에 따른다면 누군가의 목숨을 다른 목적 때문에 빼앗아 좋을 리가 없고 아무것도 해서는 안 된다는 결론이 됩니다.



광차 문제에 비슷한 토픽에 "카르네 아데스의 널빤지"라는 문제가 있습니다. 배가 난파하고 선원은 모두 바다에 내던져져서 버렸습니다. 한명이 간신히에 판자 부스러기에 매달렸는데 거기에 또 한명 같은 판자에 잡힌다고 하는 사람이 나타납니다. 그러나 처음에 판자를 붙잡고 있던 사람은 두 사람이 잡히면 판자 자체가 가라앉을 알고 뒤에서 온 사람을 들이받고 익사시킵니다.

2가지 주제는 엄밀히는 다른 윤리적 판단의 장면이지만 공통점은 "생명의 무게"에 비교론이 성립되느냐는 것입니다. 한명의 생명과 5명의 목숨은 5명의 목숨이 무거운 걸까요?

자신의 목숨과 남의 목숨은 자신의 목숨 쪽이 무겁나요. 카르네 아데스의 널빤지를 먼저 고려하면 이는 나와 남의 목숨의 무게 비교입니다만, 그 무게를 재는 일이 자신인 한은 반드시 자기 목숨 쪽이 무거워지게 생각합니다. 그러나 뒤늦게 판자에 당도한 사람이 당신의 사랑하는 연인이라면 어떨까요, 당신의 사랑 어린이였다고 해도 자신의 목숨을 지키기 위해서 밀어서 익사시킬 수 있을까요? 아마 처음에 이 문제를 읽기만 해도는 그런 자신의 목숨이 소중하게 결정되고 있다고 느꼈다고 생각합니다만, 연인이나 아이들의 목숨이 자신의 목숨보다 무겁다고 생각했던 사람도 있지 않을까요? 광차 문제의 경우도 마찬가지로 한 목숨보다 5명의 목숨 쪽이 무겁다고 생각하고 버리기 쉽상입니다만, 한명이 당신의 사랑하는 연인과 사랑 어린이라면 이야기는 다른지도 모릅니다. 혹은 한 친구와 5명의 전혀 모르는 타인이라는 비교하면 어떨까요?




인간으로서 이기주의가 나와서 자신에게 가까운 사람의 목숨을 구하겠다는 방향에 빠지지 않겠습니까.

광차 문제로 실제 5,000명으로부터 앙케이트를 취하자 처음의 경로를 바꾸고 한 사람을 죽이는 것은 89%의 사람이 "부득이 한" 이라고 대답하고 있다고 합니다. 그러나 광차의 진로를 바꾸려는 수단으로 한명을 죽이는 것을 불가피한라고 하는 사람이 대다수에도 불구하고 "광차를 중단시키기 위해서 인물을 다리 위에서 내던져" 란 수단의 경우에는 결과적으로 한 생명을 희생하고 5명의 목숨을 구하기는 마찬가지인데, 90%가 잘못이라고 대답했다고 합니다. 마찬가지로 "5명을 구하기 위해서 건강한 한명을 죽이고 장기를 주었다" 이란 어떨까요. 이 경우의 숫자는 없지만 아마 대다수가 "그것은 너무하다" 라고 생각하지 않을까요?



"정의"라는 것은 매우 어설프게 주관적인 것입니다. 생물학자 마크 하우저에 따르면 사람의 도덕적 판단은 이성과 이론보다는 직관과 감정의 영향이 크고, 다음과 같은 경향이 있는다고 합니다.

1. 행동의 원리 - 행동함으로써 일어나는 결과가 더 비도덕이라고 판단받는다.

2. 의도의 원리 - 의도함으로써 일어나는 결과가 더 비도덕이라고 판단받는다.

3. 접촉의 원리 - 직접적 신체접촉으로 일어나는 결과가 더 비도덕이라고 판단받는다.

이 가운데 (1)는 예를 들면 "왕따"문제가 있겠죠. 교육 현장에서는 적극적으로 왕따에 연루된 학생과 방관한 학생은 같은 죄라고 가르치고 있을지도 모르지만 인간의 감정은 직접 괴롭히는 것이 나쁘다고 생각합니다.

(2)는 우리는 계획적 살인을 저지른 범인은 그만 살인을 저지른 범인보다 무거운 형벌을 부과되어야 한다고 생각하죠.

(3)은(1)과 비슷하지만 광차 문제는 육체적 비접촉이므로 한 사람을 죽이는 것을 마다하지 않은 사람들이 다리 위에서 떨어뜨리겠다는 접촉을 따른 행위의 경우는 비난했습니다.




이렇게 생각하면, AI에 의한 자동 운전이 지금의 진로 그대로라면 5명이 죽고 진로를 바꾸면 한명이 죽는다는 상황에 직면한 경우 기본적으로 직관과 감정으로 행동하는 것이 아니라 AI의 경우 진로를 바꿔야 할지는 매우 어려운 문제가 되는 셈입니다.

광차문제는 우리에게 많은 생각을 하게 해주는 딜레마 상황 입니다.

과연 현재 실용화된 자동 운전은 이 근처는 어떻게 프로그램되는지 궁금해지네요..