[연재] 자율주행자동차 사고 나면 누구 책임일까? (3)
[연재] 자율주행자동차 사고 나면 누구 책임일까? (3)
  • 구태언 변호사(taeeon.koo@teknlaw.com)
  • 승인 2019.11.28 22:34
  • 댓글 0
이 기사를 공유합니다

- 4차 산업혁명이 바꿀 미래와 핵심 법률 이슈 -


(1)인공지능 스피커 추천 상품은 믿을 만할까?

(2)인공지능이 범인이라면 처벌은 어떻게 할까?

(3)자율주행자동차 사고 나면 누구 책임일까?

(4)드론을 이용한 범죄는 누가 처벌 받을까?
구태언 변호사/테크앤로 법률사무소 대표
구태언 변호사/테크앤로 법률사무소 대표

 

2018년 5월 미국 캘리포니아 주에서 테슬라 자동차가 도로에서 이탈해 남성 운전자가 사망하는 사고가 발생했다. 이 사고가 전 세계적 이목을 끈 이유는 당시 테슬라 자동차가 사람 대신 인공지능이 운전하는 자율주행자동차였기 때문이다. 미국 연방 교통 당국은 사고 당시 테슬라 자동차가 부분 자율주행 모드인 ‘오토파일럿(Autopilot)’ 상태였는지, 아니면 사람이 직접 운전하다가 사고가 난 것인지 수사를 벌이고 있다. 

테슬라 자동차의 사고는 이번이 처음이 아니다. 같은 달에도 미국 유타 주에서 오토파일럿 상태였던 테슬라 자동차가 충돌 사고를 일으켰고, 2018년 3월에도 캘리포니아 주에서 테슬라 모델X 차량이 도로 분리대를 들이받고 운전자가 사망하는 사고가 발생했다.  

비단 테슬라만이 아니다. 2018년 3월 미국 애리조나 주에서 시험운전 중이던 우버의 자율주행자동차가 여성 보행자를 치어 숨지게 하는 사고가 일어났다. 사고 차량은 레벨4의 자율주행자동차로 당시 시속 61㎞로 도로를 달리던 중이었다. 같은 달 역시 애리조나 주에서 구글의 자율주행자동차도 중앙선을 넘은 혼다 차량을 피하지 못하고 충돌하는 사고가 발생했다. 

세계 곳곳에서 자율주행자동차 사고가 빈번하게 벌어지고 있다. 싱가포르에서는 2016년 8월 시험운행 중이던 자율주행 택시가 차선을 바꾸는 도중 트럭과 충돌하는 사고가 발생했고, 독일에서도 2016년 9월 오토파일럿 상태의 테슬라 자율주행 차량이 버스를 들이받는 사고를 일으켰다. 다행히 사망자는 없었지만 버스 운전자와 승객 29명이 크게 다쳤다. 

가장 안전한 자동차 vs 가장 위험한 자동차   

자율주행자동차는 사람 대신 인공지능이 운전하는 자동차를 말한다. 회사마다 차이는 있지만 대부분의 자율주행자동차는 지붕에 탑재한 레이저 장비를 통해 사물과 사물의 거리를 측정하고, 3D 카메라를 통해 전방 도로 상황을 실시간으로 파악하며, GPS를 통해 자동차가 감지할 수 없는 사각지대를 최소화한다. 또한 인공지능 알고리즘을 적용해 자동차 스스로 목적지까지 최적의 경로를 찾아낸다. 실시간으로 도로 사정과 거리 등의 정보를 분석해 정체 구간을 제외한 가장 빠른 길로 안전하게 탑승객을 안내한다. 

빅데이터와 사물인터넷, 인공지능 등 4차 산업혁명 기술이 총집합한 자율주행자동차는 지금까지 사람의 영역이던 운전이란 행위를 인공지능 자동차가 대신하는 혁신적인 기술로 손꼽힌다. 사람이 운전에서 해방되면 그 자체로 혁명적인 변화가 예상되기 때문이다. 목적지까지 이동하는 동안 사람은 운전이 아닌 다른 업무에 집중할 수 있다. 재택근무는 더 이상 집에 국한되지 않고 자동차로 자유롭게 이동하며 어디서든 업무를 처리할 수 있게 된다. 기업들도 비용이 많이 드는 오프라인 사무실 대신 자동차를 움직이는 사무실로 이용하게 될 것이다. 제프 윌리엄스 애플 부사장은 자동차를 모바일 기기’로 정의하기도 했다. 단순한 이동수단이 아니라 스마트폰의 확장 버전으로 자동차가 폭넓게 활용될 것이란 전망이다. 

자율주행자동차가 미래 교통수단으로 주목받는 또 다른 이유는 교통사고를 획기적으로 줄일 수 있어서다. 사람은 운전 중 스마트폰 사용과 같은 부주의와 졸음운전, 음주운전 등 다양한 이유로 교통사고를 일으키고 있다. 미국에서는 매년 약 3만5천 명이 도로에서 교통사고로 목숨을 잃고 있고, 우리나라도 2017년 한 해 동안 총 21만6000여 건의 교통사고가 발생했다. 사람이 운전하지 않는 자율주행자동차 시대가 되면 교통사고가 지금보다 90퍼센트 이상 줄어들고 매년 수만 명의 목숨을 살릴 수 있을 것으로 전망되고 있다. 

이처럼 긍정적 효과에 힘입어 자율주행자동차는 미래의 지배적인 교통수단으로 지목되고 있다. 이에 따라 세계 각국은 자율주행자동차 상용화에 적극 나서고 있다. 미국 네바다 주는 2012년 5월 세계 최초로 구글의 자율주행자동차에 시험면허를 허가했다. 이후 플로리다 주와 캘리포니아 주도 자율주행자동차 운행을 허용했고, 미시간 주도 2013년 12월 자율주행자동차 운행을 승인했다. 미국은 현재 17개 주가 자율주행자동차의 도로 주행을 허가하고 있다. 유럽도 적극적이다. 영국은 2015년 2월부터 자율주행자동차의 시험 주행을 허가했고, 프랑스와 독일도 자율주행차의 공공도로 주행을 허용하고 있다. 또한 싱가포르는 2015년 세계 최초로 자율주행 택시를 도입했다. 

미래학자들은 2025년쯤이면 사람에 의한 운전이 금지될 것으로 예상하고 있다.  하지만 기대와 달리 자율주행차가 도로 위를 달리기 시작한 뒤로 사고가 꾸준히 발생했다. 이는 필연적으로 사고의 책임이 누구에게 있는지에 대한 법적 논쟁을 야기한다.  
사람이 자동차를 운전하다가 발생하는 교통사고의 경우에는 자동차의 기계적 결함과 운전자의 과실이 결합되어 나타난다. 다만 현재로선 급발진 등 자동차의 기계적 결함에 대해 제조사의 책임을 입증하기 어렵기 때문에 대부분 운전자 과실에 대한 형사처벌이 이뤄지고 있다. 

현재 우리나라의 교통사고에 관한 형사책임은 교통사고처리특례법을 따른다. 업무상 과실 또는 중대한 과실로 교통사고를 일으킨 운전자에 대해 형사처벌 등의 규정을 정한 법률이다. 이 법에 따르면 중앙선 침범이나 불법유턴, 제한속도 초과, 무면허 운전, 음주운전 등 11개 예외 사항을 제외한 나머지 교통사고에 대해 고의성이 없다고 보고 피해자의 고소 없이는 처벌하지 못하도록 규정하고 있다. 다만 사망자가 발생한 경우에는 피해자의 의사에 반해 처벌이 가능하다. 

이처럼 교통사고처리특례법은 사람이 운행지배를 한 경우만을 상정하고 있다. 만약 국내에서 자율주행자동차에 의한 교통사고가 발생하면 현행법만으로는 교통사고의 형사책임 여부를 판단하기 어렵다. 따라서 지금으로선 이미 자율주행자동차에 의한 사고가 다수 발생한 해외 사례를 적극 참고할 필요가 있다. 해외에선 자율주행의 발전 단계를 기준으로 사고 책임 정도를 판단하고 있다. 인공지능처럼 자율운행자동차도 발전 단계마다 사람의 개입 정도가 달라지기 때문이다. 

사람 운전이 금지되는 자율주행 시대  

자율주행자동차의 발전단계는 미국 도로교통안전국(NHTSA)이 2013년 제시한 자율운행자동차의 발전단계’를 근거로 삼고 있다. NHTSA는 자율운행을 0단계부터 4단계까지 총 5단계로 구분하고 있다.  

레벨 0은 ‘비자동(No Automation)’ 단계로, 종전 사람이 운행하는 자동차로 보면 된다. 레벨 1은 ‘기능 특화 자동(Function-specific Automation)’ 단계로, 평소에는 레벨 0처럼 사람이 운전하다가 갑작스런 충돌 등 위험 상황이 발생하면 자동차가 알아서 충돌을 피하거나 급정지하는 조치를 취하는 것을 말한다. 레벨 1은 최근에 출시된 대다수 자동차들이 탑재한 기술이다. 레벨 2는 ‘조합 기능 자동(Combined Function Automation)’ 단계로, 자동차가 알아서 차선을 유지하고 핸들과 페달을 제어한다. 손이나 발을 뗀 상태로 운전이 가능하다. 하지만 여전히 사람이 주의 의무를 지고 전방을 주시하는 등 운전 전반을 담당해야 한다. 레벨 3은 ‘제한된 자율주행(Limited Self-Driving Automation)’ 단계로, 자동차가 횡단보도와 보행자, 교차로, 신호등 등 교통상황 전반을 감지할 수 있다. 운전자의 조작 없이도 자율주행이 가능하다. 하지만 여전히 운전자가 운전석에 앉아 있어야 하고, 운전자의 제어가 필요한 경우 경보신호가 작동한다. 레벨 4는 ‘완전 자율주행(Full Self-Driving Automation)’ 단계로, 운전자가 목적지만 입력하면 모든 운행을 자동차가 알아서 한다. 말 그대로 사람의 개입이 금지된 완전한 자율주행자동차라고 할 수 있다. 

해외에선 레벨 2와 레벨 3처럼 인공지능과 사람이 나누어 운행지배를 하는 경우와, 레벨 4처럼 완전히 인공지능이 운행지배를 하는 경우로 나눠 처벌 수위를 정하고 있다. 운행주체가 사람인지 인공지능인지에 따라 처벌 수위가 확연히 달라진다. 

일례로 NHTSA는 2016년 5월 발생한 테슬라 모델S 차량의 사고에 대해 사람 운전자에게 책임을 물었다. 당시 테슬라 차량은 레벨 3으로 인공지능에 의한 자율주행 상태였다. 그런데 트랙터 트레일러와 충돌하는 사고가 발생했다. 테슬라가 밝힌 사고 원인은 모델S가 트레일러의 하얀색 측면을 밝은 하늘의 허공으로 착각해 정지하지 않고 계속 주행했기 때문이다. 이에 대해 NHTSA는 차량의 결함이 아닌 기술적 한계로 판단했다. 또한 운행에 책임이 있는 사람 운전자가 충돌 가능성을 인지하고도 대응하지 않은 점을 들어 운전자에게 결정적 책임이 있다고 봤다. 

반면 2016년 2월 발생한 구글 자율주행자동차 사고에 대해서는 구글에 책임을 물었다. 당시 구글 차량은 레벨 4로 사람의 개입이 없는 완전한 자율주행 모드였다. 구글 차량이 우회전을 하던 도중 버스와 접촉사고가 일어났다. NHTSA는 버스 운전자가 일반 운전자와 달리 양보하지 않는 성향이 있음을 고려하지 못한 구글 차량에 사고 책임이 있다고 판단했다. 완전 자율주행자동차라면 응당 다양한 운전자의 성향을 고려해 미리 대처했어야 한다는 것이다. 

테슬라 사례에서 보듯이 사람이 운행지배를 하고 인공지능이 개입하는 레벨 2와 레벨 3 수준인 경우 사람 운전자의 책임을 더 크게 묻고 있다. 하지만 레벨 3의 경우 인공지능이 완전자율주행에 준하는 서포트를 하고 있고, 제조사들도 사람의 개입 없이도 위급상황을 회피할 수 있다는 점을 강조하고 있다. 이런 점을 고려할 때 과도기적 자율운행이라 해도 인공지능의 법적 책임을 일부 인정하는 것이 타당할 것으로 보인다. 
물론 이 경우 운전자인 사람과 인공지능에게 어느 수준으로 형사책임을 배분할 것인지, 또 인공지능에게는 어떤 방식으로 형사책임을 배분할 것인지에 대한 논의가 필요할 것이다. 

문제는 사람의 개입을 배제한 완전자율운행자동차가 사고를 일으켰을 경우다. 완전자율운행자동차는 인공지능이 온전히 운행지배를 하므로 인공지능의 과실로 인한 사고가 발생할 경우 형사책임에 관한 논의가 필요하다. 인공지능에게 과실이 있는 경우 기존의 교통사고처리특례법을 적용하기 어렵기 때문에 새로운 입법의 필요성도 존재한다. 

교통사고가 전적으로 인공지능만의 문제로 발생한 경우에는 인공지능을 제공한 법인에게 형사책임이 귀속될 것이다. 그게 아니라 인공지능의 오작동을 유발할 수 있는 외부적 요인, 이를 테면 센서 등 하드웨어 오작동이나 인공지능에 연결된 네트워크 장애 등이 발생해 인공지능의 결함과 무관하게 사고를 유발한 경우에는 외부적 요인을 제공한 주체들에게 형사책임이 귀속될 것이다. 또한 이러한 외부적 요인들이 기존의 인공지능 결함과 결합해 사고를 유발한 경우에는 양측 모두에게 책임이 돌아갈 수 있을 것이다. 

자율운행자동차 인공지능의 경우 정교한 알고리즘과 방대한 빅데이터가 필수적이다. 개인이 아닌 대규모 기업(법인)이 인공지능 제공과 운영 주체가 될 텐데, 법인은 형사책임 능력이 없다. 따라서 인공지능 제작과 운영 등에 개입한 직원들이 1차적 형사책임의 주체가 될 것이다. 
이 경우 인공지능 알고리즘을 설계한 프로그래머, 인공지능 동작의 기반이 되는 빅데이터 수집과 가공 및 제공자, 인공지능 운영에 관여한 자 등이 형사책임의 주제가 되고, 이들 사이에 형사책임 배분이 문제가 될 것이다. 

더불어 기타 관리 감독자 등의 형사책임 성립 여부도 문제가 될 것이다. 고의범에 의해 사고가 유발된 경우 당사자를 기존의 법리로 처벌하는 것은 큰 어려움이 없다. 예를 들어 기업 내부자가 인공지능의 동작 기반이 되는 데이터를 위변조하는 방법 등으로 사고를 유발할 수 있다. 이 경우 현재 고의로 교통사고를 낸 사람과 같이 형법상 살인죄와 상해죄 등 고의범으로 의율하면 된다. 반면 해킹 등으로 인공지능 오작동을 유발한 경우에는 별도의 논의가 필요하다. 인공지능 과실이 해커의 해킹으로 일어난 경우 해커는 형법상 고의범이 된다. 하지만 인공지능 운영주체가 해킹을 막지 못한 것에 대해 형사책임을 물을지 여부와, 만약 묻는다면 누구에게 물을 것인지가 문제가 된다. 

자율주행자동차가 해킹에 노출되면 테러에 사용되는 등 수많은 물적 인적 피해를 유발할 수 있다. 현행 개인정보 유출사고와 같은 일반적인 해킹 사고보다 엄격한 면책요건을 적용할 필요가 있다. 이외에도 기타 일어날 수 있는 많은 경우의 수를 상정해 논의를 진행해서 향후 자율주행자동차에 관한 위법 여부에 대해 예측가능성을 높이는 것이 필요하다. 자율운행자동차 인공지능의 과실로 교통사고가 발생할 때마다 인공지능 운영주체에게 형사책임을 지우면 산업 발전에 걸림돌이 될 것이다. 현행 교통사고처리특례법과 같이 일정한 경우 인공지능 운영주체에 대해 형사상 면책이 필요하다. 그 기준을 시급히 확립해야 한다. 

예를 들자면 종합보험에 가입한 경우 물적 피해에 대해서는 면책이 되고, 인적 피해의 경우에는 경한 상해까지는 면책이 되지만 중상해나 사망사고가 발생할 경우에는 면책요건을 까다롭게 하는 식의 기준을 마련해야 한다. 또한 해킹에 의해 인공지능이 오작동해서 사고가 발생한 경우 인공지능 운영주체에 대한 처벌과 면책 기준도 논의가 필요하다. 
문재인 정부는 2020년까지 레벨 3 자율주행차를 상용화하고, 2026년에는 레벨 4 이상의 완전 자율주행차 기반 구축을 목표로 제시했다. 가까운 미래에 현실이 될 완전 자율주행차 시대에 대비해 기존 법률 개정과 새로운 법률 도입에 관한 연구와 적극적인 논의가 필요한 시점이다. 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • #1206, 36-4 Yeouido-dong, Yeongdeungpo-gu, Seoul, Korea(Postal Code 07331)
  • 서울특별시 영등포구 여의도동 36-4 (국제금융로8길 34) / 오륜빌딩 1206호
  • URL: www.koreaittimes.com / m.koreaittimes.com. Editorial Div. 02-578-0434 / 010-2442-9446. Email: info@koreaittimes.com.
  • Publisher: Monica Younsoo Chung. CEO: Lee Kap-soo. Editor: Jung Yeon-jin. Juvenile Protection Manager: Yeon Choul-woong.
  • IT Times Canada: Willow St. Vancouver BC, Canada / 070-7008-0005.
  • Copyright(C) Korea IT Times, Allrights reserved.
ND소프트