구글 자율운전차량 사고시 센싱화면(왼쪽)과 사고 난 차량의 모습.
구글 자율운전차량 사고시 센싱화면(왼쪽)과 사고 난 차량의 모습.

#. 지난 2월, 캘리포니아에서 시험주행 중이던 구글의 자율주행차는 우회전을 하려던 중 바닥에 떨어진 모래주머니를 발견하고 정지했다. 이 차의 알고리즘은 이런 경우 장애물을 피해 우회 하도록 짜여졌다. 알고리즘에 따라 일단 좌측으로 차선변경을 하려는데, 뒤쪽에서 버스가 다가온다. 거리는 다소 애매하다. 자율주행차는 “내가 차선에 진입하면 속도를 줄이며 양보해 줄 것”이라고 판단한 뒤 좌측 차선으로 진입을 시도했다. 그러나 버스 운전사는 인공지능의 생각과 달리 양보하지 않았다.
#. 수많은 변수가 존재하는 도로상황 속에서 운전자의 ‘끼어들기’는 혹시 발생할 사고에 대한 책임을 염두해 둔 행위다. 차량 통행이 많은 도로에서 뒤쪽에 다가오는 차가 없을 때 옆차선으로 진입하는 것은 현실적으로 불가능하기 때문에 다른 운전자의 양보를 기대하며 옆차선으로 진입하게 마련이다. 만약 사고가 발생한다면 자신의 책임을 피할 수 없다.

지난 2월 발생한 구글의 자율주행차 사고에 업계와 학계의 관심이 집중된다. 법규의 한계를 극복하기 위해 인공지능이 ‘융통성’을 발휘하다가 일으킨 사고였기 때문이다.


6일 정보통신기술진흥센터 주간기술동향 보고서에 따르면 구글 측은 지난 2월 발생한 자사의 자율주행차 사고의 원인을 “AI가 사람의 운전습관을 배웠기 때문”이라고 분석했다.

구글은 이 사고에 대해 이례적으로 자율운전차량의 판단착오가 있었음을 인정했다. 구글은 지난 6년간 자율주행차를 실도로에서 실험하며 17차례의 경미한 사고를 겪었으나 단 한번도 자율주행차의 과실을 인정한 적은 없었다.

경미한 사고지만 이는 자율주행차의 근간을 뒤흔들 수 있는 사건으로 여겨진다. 자율주행차는 원칙을 고수하며 ‘답답한 존재’로 남아야 할지, 융통성을 발휘하는 ‘위험한 존재’가 돼야 할지 딜레마에 빠졌다.

◆ ‘융통성’까지 배운 구글의 자율주행차



사고가 발생한 구글 자율주행차는 실도로에서 시험 운행하다가 우회전차선에 모래주머니 때문에 주행이 불가능하자, 옆차선을 이용해 크게 우회전 하기 위해 직진차선으로 끼어들기를 시도했다. 이 과정에서 뒤에서 오던 버스와 경미한 교통사고가 발생했다.

자율주행차가 이런 ‘끼어들기’의 판단을 했다는 것은 자율주행 기술의 혁신적인 발전을 보여준다. 옆 차선에 차가 오지 않을 때 까지 무작정 기다리는 것이 아닌 도로의 흐름을 읽고 융통성을 발휘 한 것이기 때문이다. 초기의 자율주행차는 ‘법규’만을 따랐다. 차선을 바꿔야 할 때면 뒷 차와 충분한 거리가 유지됐을 때만 행했고, 정지상태에서 끼어들 때는 후측방에서 접근하는 자동차가 없을 경우에만 행동했다.

이런 구글 자율주행차의 운전은 ‘완벽’했지만, 인간들은 불만을 가질 수 밖에 없었다. ‘적당히’ 끼어들면 될 일을 원칙대로 하다보니 답답하게 마련이다. 자율주행차가 도로교통의 흐름을 해친다는 불만제기도 많아졌다.

이에따라 구글은 2015년 후반부터 자율주행차의 알고리즘을 개선해 다른 운전자의 흐름에 따라 주행하도록 만들었다. 일종의 ‘융통성’을 준 셈인데, 꽤나 성공적이었던 것으로 여겨진다. 이번 사고가 화제가 됐다는 것은 역으로 이전까지 수백 수천번의 끼어들기가 성공했었다는 뜻이기 때문이다.

이번 사고 후 구글은 “자율주행차가 움직이지 않고 버스가 지나가길 기다렸다면 사고가 발생하지 않았을 것으로 구글측에 책임이 있음이 명확하다”며 “버스와 같은 유형의 차량은 다른 차량보다 양보할 확률이 적다는 점을 이해했고, 소프트웨어를 조정했다”고 밝혔다. 그들이 사용하는 알고리즘이 각기 차량의 성향까지 고려하고 있다는 것을 간접적으로 드러낸 셈이다.

◆ ‘융통성’은 책임을 수반한다


다만 이번 사고로 자율주행차의 한계가 명확하게 드러났다. 330만 킬로미터가 넘는 주행 데이터베이스를 차곡차곡 쌓아가며 차질없이 진행되는 듯 보였던 구글의 자율주행차가 딜레마에 직면한 것이다.

구글은 자율주행차의 답답함을 해결하기 위해 ‘융통성’을 불어넣었지만 이에대한 책임문제는 해결하지 못했다. 이 기계의 판단력이 아무리 뛰어나더라도 단 한번의 사고로 발생하는 문제의 책임소재를 두지 않으면 ‘무인자동차’는 불가능하다.

이번에 사고가 발생한 모델은 ‘자율주행차’이지만 ‘무인자동차’는 아니다. UN협약에 근거한 각국의 자동차 기준은 “모든 차량에는 반드시 운전자가 타고있어야 한다”고 규정돼 있다. 시범운행 중인 구글의 자율주행차 역시 딱히 하는 일이 없더라도 직원이 탑승해야 한다. 혼자서 인간 운전자 수준의 주행이 가능함에도 운전자가 있어야 하는 이유는 ‘책임소재’ 때문이다. 기계에게 책임을 지울 수는 없다.

자율주행차가 기존처럼 ‘원칙’대로 운전하는 기계라면 책임의 문제에서 상대적으로 자유롭다. 사고가 발생한다 해도 이는 상대차량 운전자의 책임이다. 실수를 하는 것은 사람이지 기계가 아니다.

어쨌건 구글은 이 ‘융통성’에 대한 연구를 지속하고 있고 언제나 그랬듯 획기적인 진보를 보여줄 것으로 기대된다. 하지만 이에 따르는 책임문제가 해결되지 않는 이상 ‘무인자동차 시대’는 불가능하다.