李想前腳發文讚美自家NOA智慧駕駛2021年成績優異,後腳就有國家973計劃專案首席科學家,復旦大學教授楊珉澆冷水:「自動駕駛安全性沒有想象的那麼香,不要輕易嘗試L2級以上功能,特定條件下必然發生碰撞。」
這事兒還得從李想最近在微博中感慨2021年理想汽車智慧駕駛的變化說起。在微博中,李想先肯定了對智駕的重視,緊接著委婉道出,剛開始造車不夠錢,直到上市後才開始有錢加碼自研,之後就開始細數理想汽車2021年智慧駕駛成績單,以及自研成績。
比如理想成為繼特斯拉和小鵬之後全球第三傢俱備完整NOA和AEB全棧自研能力的品牌,其自研究的AEB測試在懂車帝年度測試中成為冠軍。
李想在2022年初鼓吹智慧化研發迎頭趕上,無非是為即將推出的理想X01車型預熱打氣,但不料引發楊珉教授感慨回應,並且還拿出自研自動駕駛安全測試平臺測試結果為證。
當然,楊珉教授並不是為了回懟李想而特地在微博上公開發言,其表示是因為而且還表明是看了理想汽車創始人李想的最新感慨,引發的不吐不快,公開質疑的是當前車企智慧駕駛的安全性。
楊珉教授在微博中稱,現在造車新勢力智慧駕駛普遍L2起步,但有的據稱已經達到L4級別,那L4是不是已經到了大規模應用階段呢?
楊珉教授在微博中表達了否定態度。
楊珉教授表示,我們的安全研究人員覺得自動駕駛安全性沒有想象的那麼香。並且還著重指明,這個論斷出自他們自動駕駛安全測試團隊針對市面上某L4級別系統進行安全測試。
結論是:「在滿足某種特定條件的場景下,L4級無人駕駛必然發生車輛碰撞。」並表示而且這樣的結果並不是孤例,在測試系統僅一週時間的測試中,就發現數百個車輛碰撞的案例。
從楊珉教授給出的動圖可以見,測試車輛無人接管的情況下,面對旁邊車道車輛突然加塞時沒有選擇減速,而是徑直撞了上去。
為此,楊珉教授表示,參與測試團隊小夥伴們紛紛倒吸一口零度以下涼氣,表示不要嘗試L2以上功能。
而楊珉教授本人則發表了一個富含哲理的觀點:雖然這些在顯示生活中都是機率極小的事件,但「時代的每一片雪花,落在個人身上都是一座山」。
之後,楊珉教授的發言引發了網友的討論。
有留言認為:主機廠鼓吹輔助駕駛,只是打著科技進步的旗號,以實現讓使用者眾包測試的軟體的目的,出了事人家還可以說是你的問題,不是車的問題,是當代聖母瑪利亞。其中的代表企業就是特斯拉。
當然也有消費者從技術上討論認為:單車感知本來就有侷限。協同感知協同規劃是趨勢之一,協同感知協同規劃的大前提下系統目標和單車目標衝突如何處理也是問題。而且系統功能安全是其一,系統資訊保安是其二。楊老師這個應該是功能安全的測試。
最後有消費者善意提醒,即使機率極小的事件,乘上基數,也會變為頻發事件,並提醒各位消費者理性使用輔助駕駛功能。
從行業來看,楊珉教授指出的問題,在現實中早已頻頻上演。
羊咩咩認為:隨著高級別輔助駕駛加速商業落地,行業該如何引導使用者謹慎且正確的使用這一功能,成為了一大難題!
比如因為自動駕駛出現事故而被推上風口浪尖的特斯拉,一度引發信任危機。
曾經就有國內特斯拉Model 3車主,在開啟Autopilot系統時,面對旁邊加塞的渣土車不僅沒有選擇減速,反而加速直接懟在渣土車上。
事後這位車主表示重新整理認知,為什麼號稱自動駕駛系統,連渣土車這麼大的目標都沒有識別到。
經歷類似事故的特斯拉車主不止一位,而頻頻發生撞車事故的背後是特斯拉早期對輔助駕駛功能的誇大宣傳,誤導了消費者對該功能的理解。
在AutoPilot功能推出時,特斯拉就將其當作自動駕駛來宣傳,導致出了不少車禍,後期迫於輿論壓力和政策要求才修改為輔助駕駛,但這種誇張的傳播已經誤導了不少消費者,才有了上面這一慘案。
不僅是特斯拉,國內造車新勢力同樣爆出過類似事故。
去年年初就有車主曝出蔚來NIO Pilot在高速上沒有及時識別路邊停靠的五菱宏光,高速行駛狀態下發生碰撞。後又有一位知名企業家在使用蔚來NOP領航輔助駕駛時撞上高速路政車輛導致死亡的事件鬧的沸沸揚揚。
後面蔚來汽車緊急把部分宣傳手冊上的「智慧駕駛/自動駕駛」修改為了「輔助駕駛」。
當然,這件事還引起業界關於自動駕駛標準的討論,政策也做了進一步跟進:「需規範收集資料,涉及安全性的OTA需要向有關部門申請報備。」
但值得注意的是,以上頻發的事故案例,還只是為數不多的幾家新造車公司,在2021年推出了L2級別的輔助駕駛功能。
未來,隨著智慧輔助駕駛大規模應用,每一起事故都會掀起一場爭論和不信任,都可能會摧毀自動駕駛行業的發展,而楊珉教授的冷峻預警,更像是用另一種方式告誡行業:「做好使用者引導和傳播工作,謹慎向用戶推送高階輔助駕駛功能。」