作者| James
編輯| 曉寒
違規使用L2自動駕駛系統,涉嫌犯罪!
美國時間1月18日,當地一名特斯拉Model S駕駛員被指控過失殺人罪,原因是不當使用L2自動駕駛系統致人死亡。
在一次駕駛中,他開啟了特斯拉的Autopilot系統,在遇到紅燈(系統不能處理的情況)時沒有及時接管車輛導致兩車碰撞——被撞車輛兩人死亡,特斯拉駕駛員和乘客不同程度受傷。
美國國家公路交通安全管理局(NHTSA)調查後認為,當時駕駛員的確開啟了Autopilot功能,但因為駕駛員需要始終對駕駛負責,因此不管開啟與否,都需要對這起事故負責。
這裡需要注意,事故發生時的2019年,特斯拉Autopilot並不能識別道路上的紅綠燈並做出反應,因此在過紅綠燈路口時,駕駛員顯然應該及時接管車輛以避免危險。
近年來,L2級自動駕駛系統在量產車中快速普及,全球範圍內也不斷出現各種事故。雖然各種事故發生的場景與原因各不相同,但最典型的原因就是駕駛員在遇到系統不能工作的場景(比如紅綠燈)時沒有及時接管,或者根本就沒注意到特殊情況(比如低頭玩手機),最終導致發生事故。
此前,輿論關注的焦點多是探討L2自動駕駛系統是否存在設計缺陷等問題。但同樣重要的是,如果系統在設計的範圍內正常工作了,但因為人類駕駛員沒有合理使用而產生了事故,到底應該如何判定責任呢?
美國的這起法律案例,顯然就為全球的自動駕駛實踐提供了一個新的思路。
外媒《華盛頓郵報》稱,該駕駛員因L2自動駕駛中發生嚴重事故,被指控犯有重罪,在美國還是第一次。
檢察官提起過失殺人指控後,Model S駕駛員不認罪,並且已經得到免費保釋。
一、駕車闖紅燈致兩死兩傷 司機被指控過失殺人
2019年12月29日,一輛黑色特斯拉Model S在洛杉磯郊區發生一起嚴重事故。當時,27歲的駕駛員Kevin George Aziz Riad(後文稱其Riad)開啟特斯拉的L2級自動駕駛系統Autopliot,從當地一條高速路駛出,經過一個紅燈路口時,該駕駛員未及時接管,車輛闖紅燈繼續高速行駛。
不幸的是,這輛特斯拉Model S在衝入路口後,撞上了一輛本田思域轎車,導致思域車內的一男一女兩名乘員當場死亡,二人分別是Gilberto Alcazar Lopez和Maria Guadalupe Nieves-Lopez。特斯拉Model S內的兩名乘員沒有生命危險,但也受傷住院。
2021年10月,加州檢察官指控當事司機Riad犯有兩項過失殺人罪,但Riad表示不認罪。
近期,對當事司機Riad指控的案件得以公開,成為美國曆史上首位因L2自動駕駛發生嚴重事故後被指控重罪的駕駛員。
外媒《華盛頓郵報》稱,由於Riad是一名豪華轎車服務司機,因此在案件判決之前,這名司機已經得到免費保釋。
這一事件被公開報道後,Riad的律師沒有回應置評請求,洛杉磯縣地方檢察官辦公室拒絕討論這一案件。根據計劃,這一案件的初步聽證會將在2月23日舉行。
事故發生後,死者Lopez和Nieves-Lopez兩人的家人分別起訴了特斯拉和Model S駕駛員Riad。他們指控稱,由於Riad的疏忽,且特斯拉銷售有缺陷的車輛,造成突然加速且自動緊急制動沒有開啟,最終導致嚴重事故。
在法庭檔案中,Lopez的家人們稱:“(這輛車)突然加速到過度、不安全以及無法控制的速度。”並且Nieves-Lopez的家人還表示,Riad危險駕駛,此前已經有多項違規記錄,無法駕馭高效能的特斯拉汽車。
二、指控檔案未提及L2 駕駛員恐需負全責
值得注意的是,在這一案件的刑事指控檔案中,甚至都沒有提到特斯拉的Autopilot。似乎駕駛員是否開啟Autopilot,對案件的結果沒有任何影響。
而NHTSA現場調查後認為,事故發生時,當事司機確實開啟了Autopilot功能。
實際這也並不奇怪,因為在駕駛過程中,無論駕駛員是否開啟L2級自動駕駛,車輛的駕駛責任都需要駕駛員承擔。也就是說,車輛行駛中發生的事故,或是交通違法行為,駕駛員都需要為車輛的行為負責。
NHTSA表示,美國所有州的法律都要求人類駕駛員對其車輛操作負責。儘管車輛的自動駕駛系統能夠一定程度上避免事故發生,但駕駛員必須負責任地使用這一系統。
針對Riad的過失殺人指控,NHTSA回應稱,現在美國沒有銷售完全自動駕駛車輛,無論汽車是否開啟了自動駕駛功能,都需要人類駕駛員始終控制車輛。
同時,各大車企的L2級自動駕駛系統,也都有強制駕駛員保持駕駛注意力的措施。例如特斯拉在開啟Autopilot功能之後,需要駕駛員每隔一段時間輕轉方向盤,或者打燈變道。這樣能給車輛一個訊號:駕駛員還在駕駛狀態中。還有一些車型在駕駛席有一套駕駛員監控系統(DMS),實時監測駕駛員的眼神是否看向前方道路,判斷是否要求駕駛員接管……
很明顯,這起發生在2年多前的事故,簡化來看就是駕駛員闖紅燈,造成兩死兩傷的嚴重後果。至於當事駕駛員Riad及其律師是否會用Autopilot為自己辯護,則是這一案件接下來最大的看點。
三、Autopilot正接受多家機構調查 已發生多起事故
在美國,因特斯拉Autopilot被駕駛員濫用,已經發生了多起事故,並且一直受到NHTSA、NTSB等部門的調查。但調查結果顯示,幾乎所有Autopilot事故中,都是駕駛員過度相信Autopilot或者注意力不集中導致。NTSB還在一份報告中說,這是一種“自動駕駛自滿”的表現。
2018年,美國加州發生特斯拉追尾一輛消防車的事故,NTSB認定特斯拉駕駛員過度依賴Autopilot系統,導致沒能及時接管,所幸這起事故沒有人受傷。
去年五月,同樣在美國加州,一名男子開啟Autopilot之後,竟然離開駕駛席,坐在了後座上。被警察發現後,該男子被捕。
根據統計,2016年以來,NHTSA已經針對26起Autopilot相關事故進行了調查,其中至少11人死亡。
結語:自動駕駛法規需要不斷完善
自動駕駛作為汽車行業的新興事物,令人們感到新奇。但同時,自動駕駛領域的法規並不完善,導致自動駕駛行業的某些標準並不統一。
在未來出行不斷走近我們的生活,自動駕駛領域的立法也應不斷完善,對駕駛員、車企、供應商的規範也應加速建立。