首頁>汽車>

作者 | 周繼鳳

編輯 | 向小園

特斯拉又出事了。

截至目前特斯拉官網尚未公佈事故原因,但聯想起特斯拉此前因自動駕駛引發的多起事故,這一次,不少人猜測事故車輛是否也在自動駕駛狀態下。

2016年,美國佛州的一輛特斯拉Model S在Autolipot狀態下與正在轉彎的白色半掛卡車發生碰撞,特斯拉駕駛員不幸身亡;2019年,一輛特斯拉Model 3在Autolipot狀態下以110公里/小時的時速徑直撞向了一輛正在緩慢橫穿馬路的白色拖掛卡車……

為什麼特斯拉總是識別不出白色車輛?特斯拉的自動駕駛技術究竟安不安全?為什麼多家車企的L2級自動駕駛都出現了安全事故?這些事故的共性是,駕駛員過於信任自動輔助駕駛系統,而放棄汽車控制權或不再時刻關心路況

自動駕駛目前形成了兩大派系,一派是谷歌派,走的是全自動駕駛模式,主要目標是無人駕駛技術完全取代人,所以從一開始就沒有考慮剎車、油門、方向盤等問題。另一派是以特斯拉為首的汽車製造商,做法是先實現半自動輔助駕駛,再逐步過渡到完全自動駕駛。

儘管一些傳統車企早已研發出、配備上了自動輔助駕駛的功能,但還是比較保守,造車新勢力們在這方面似乎更為激進,且有彎道超車的架勢。不少專家也指出,由於電氣化程度高、動能效率高等特性,新能源車是自動駕駛的最佳載體。

特斯拉的創始人馬斯克在2020年上海世界人工智慧大會發布的影片中說:“我覺得我們已經非常接近L5級自動駕駛了。我有信心,我們將在今年完成開發L5級別自動駕駛的基本功能”。

隨著越來越多企業加入並且鼓吹自己具備L3、L4級別的自動駕駛技術,越來越多配備著自動輔助駕駛系統的新造車上路,一些現實的問題擺在車企、供應商與消費者面前:如何平衡技術與安全?如何讓駕駛者及時且安全地接管控制汽車?最重要的是,人類駕駛員該不該相信自動駕駛系統?

你敢不敢用自動駕駛系統?

你敢不敢開著自動駕駛系統在路上跑?

“真不敢。”一位車主在車主群裡直言:“我把有關自動駕駛的一切都關了,因為非常不信任這個系統。”

家裡有一輛Model 3 的車主陳亮一提到自動駕駛就有點兒後怕:“現在路況還不夠完善,自動駕駛技術還不是很成熟,聽著有點兒嚇人,我不敢用。”

也有極大膽者。特斯拉車主Monica就看到有人在車主群裡分享這樣的經歷:由於極度信任自動駕駛,在三環上跑了兩圈結果睡著了。“相當於他跑的這幾圈完全沒有接管方向盤,不知道他是怎麼騙過系統的。”

為了確保駕駛者的警覺性,不少配備了自動輔助駕駛功能的車輛會在方向盤上裝設感應器,從而確認在開啟自動輔助駕駛系統的時候,駕駛員是否把手放在方向盤上。

但不少車主在網路上分享了抖機靈的做法,比如把礦泉水瓶、橘子綁在方向盤上迷惑系統,讓系統誤認為是駕駛員的手在方向盤上。

但更多時候,車主們面對自動駕駛技術往往是小心翼翼地試用、體驗。常年跑通勤開啟特斯拉Autopilot功能的車主王盛坦言:“我其實分不清具體什麼是自動駕駛,什麼是自動輔助駕駛,潛意識覺得它有點兒危險。後來有朋友一直在用特斯拉的Autopilot功能,在他的推薦下我才開始用的。”

總體來說,據Monica觀察,周圍90%的車主都是非常小心謹慎地嘗試自動駕駛系統。“我個人其實是依靠路況來判斷要不要開啟。在路況好的時候,上高架、高速都非常有用。市區路況不好時不敢開。即便使用的時候可以稍微解放雙手雙腳,但也得一直盯著道路,你的手必須是隨時處於接管車輛的狀態。”

Model X車主張鷺也持相同的觀點,“還是謹慎點兒好。”他平日開車上路也不依賴自動駕駛,一般是在城市道路比較擁堵的時候,或者在高速路上駕駛比較疲憊的時候,才開啟自動駕駛功能。在他看來,自動駕駛不危險,儘管偶爾會出一些bug,但隨著技術發展,會越來越安全,不過需要謹慎對待。

如今造車新勢力包括特斯拉、小鵬等在內,給使用者提供的是“整體化”的輔助駕駛功能,相當於在宣傳上沒有劃分出太多細分功能,而是在場景中融入自動輔助駕駛功能。

經朋友推薦開啟自動輔助駕駛功能的王盛,如今只要是跑通勤上高速或者上環線都會開啟自動駕駛。“感覺太方便太省心了,相比於自己親手開,能省不少事兒,有時候還能接接電話。”

張鷺也發現了自動駕駛的好處。“平日裡開車,我只用手握方向盤,剎車和油門就不用踩了,系統會自動跟車,自動轉彎,非常方便。”

“甚至有幾次,自動駕駛救了我的命。”張鷺回憶,特斯拉的自動駕駛有一些主動預警的措施,比如車道偏離、追尾等,在關鍵時刻會給他提醒。

但車主們也不是沒有遇到過安全事故,不少人曾遇到過“驚險時刻”。

杭州的孟孟剛買特斯拉一個月,就遇到了事故。那天晚上,下了點小雨,人也有點放鬆,她開啟了輔助駕駛系統在高架路上行駛,結果突然撞上了一個修路的指示牌。“原來是系統完全沒有識別出來,萬幸修路的工人沒有站在中間,現在想想還後怕。”

Monica有時候會“被特斯拉嚇一跳”,它會識別不到車速比較慢的車,比如說停在路邊故障車、慢速的清掃車,這時候系統會突然急剎車,它以為前面有障礙物。”

有一次一輛車中途強行併線,王盛下意識踩了一腳剎車,因為開啟著Autopilot自動輔助駕駛,踩剎車相當於解除自動駕駛了,差點兒被追尾。後來,王盛用自動輔助駕駛系統有經驗了,但是還是很怕前方車輛突然強行併線從而導致自己被追尾。

自動駕駛和輔助駕駛,傻傻分不清楚

究竟什麼是自動駕駛,自動駕駛與輔助駕駛的區別在哪兒,車主們往往是一頭霧水。

Monica就沒有具體瞭解過系統裡有哪些功能,而是直接上手了。在她的視角里,“需要做什麼的時候系統會自動提醒。”

另一位特斯拉車主的理解是,自動駕駛技術就是解放雙手雙腳,完全不用人了。

還有不少車主是依靠名稱來猜。

以特斯拉為例,目前,特斯拉針對自動駕駛推出了不同的軟體包,其中,基礎標配的功能被稱作基礎輔助駕駛功能(即AP),更高階的軟體包FSD,則被稱為完全自動駕駛。由於特斯拉直接把更高階的自動駕駛軟體包取名為完全自動駕駛,不少車主直接把特斯拉FSD等同於自動駕駛技術

對於FSD,一位車主表示,“感覺是完全可以放開手腳的那種。”但實際上,FSD名稱叫完全自動駕駛,實際功能更多是L2級別的自動駕駛,再疊加一些結構化、場景化的L3、L4級別的自動駕駛,離真正的自動駕駛還很遙遠。

直接面向消費者的特斯拉銷售,在這點上似乎也沒什麼幫助。“銷售既沒有和我明確解釋,特斯拉的AP和FSD的區別,也沒有和我說每個功能如何操作,有什麼注意事項,只是提了一句‘有這樣的軟體包’,我覺得不是很划算所以就沒買。”上述車主回憶。

某種程度上,車友群裡的普及和使用分享,反而成了車主們瞭解自動駕駛、輔助駕駛系統的重要渠道。

但因為概念模糊、認知不清晰,已經讓一些車主付出了代價。

2016年5月,一名特斯拉Model S司機在美國佛羅里達州威利斯頓附近被撞身亡,當時他啟動了自動駕駛系統,車輛撞上了一輛拖拉機拖車,電動車車頂被掀開。

2018年3月,美國加州山景城發生一起致命事故,當時一輛執行自動駕駛的Model X撞上了混凝土護欄。事後特斯拉調查發現,車輛日誌顯示,司機收到了需將手放在方向盤上的警告,但司機在事故發生前沒有采取任何行動。

2020年6月1日,一輛特斯拉Model 3行駛在臺灣高速公路上時,直接撞向一輛翻倒在公路上的大卡車。據警方介紹,“司機表示自己在車輛行駛時開啟了自動駕駛輔助功能,將車速固定在110公里/小時,行駛途中自己有些分神,沒有將全部注意力集中在車輛和道路上。”

這些悲劇的共性就在於,駕駛員過於信任自動輔助駕駛系統,導致放棄控制汽車控制權、或者不關心路況,在危險來臨之時,沒有及時接管車輛。

被濫用的“自動駕駛”

為什麼原本能夠進一步保證行程安全的自動駕駛技術,反而成了馬路殺手?我們得從自動駕駛的分級說起。

不少人頭腦中的自動駕駛大概是這樣的——一輛沒有司機沒有方向盤的無人車載著乘客在路上狂奔,並完美躲避障礙物。

但實際上,按照美國汽車工程師學會(SAE)的定義,自動駕駛分為從0級(完全手動)到5級(完全自動)6個等級,主要看駕駛員的介入程度。最高級別L5可以做到全場景全自動,相當於上述人們頭腦中、電影中展示的自動駕駛。目前技術水平有限,不過在走向L5的路上,每提高一個等級,自動化的程度就晉升一級臺階。

這其中最重要的分界線是L2級別。

L2及以下級別是自動駕駛的初級水平,被劃分為ADAS(Advanced Driving Assistance System)範疇,也就是高階駕駛輔助系統,利用系統和技術來輔助駕駛員完成駕駛。這意味著,這個區間的自動駕駛技術不具備“全自動駕駛能力”,是始終需要人類監管的駕駛輔助系統——事故主要責任人是人類駕駛員。

L3及以上級別,駕駛員才有機會脫手脫腳,無需全程接管、監管。這時候,系統不僅需要負責從各種感測器和攝像頭等裝置收集資訊,還轉變成了需要根據這些資訊進行判斷並執行的主體——一旦發生事故,技術提供方也就是主機廠,與駕駛員共同承擔責任。

因此,分級究竟是L2還是L2以上至關重要,這決定了事故的責任方究竟是誰,也決定了駕駛員究竟是無需接管還是必須全程監督。

美國高速公路安全保險協會IIHS就曾指出,半自動駕駛功能理應是為車主提供額外的一層安全保障,但企業在設計某些功能時的出發點,就是讓司機“脫離”駕駛操作。比如自適應巡航和車道保持,這兩個典型的自動駕駛系統的功能,實現了一種近乎是人類司機操作的效果,雖然不同車企開發的功能的有效性不同,但沒有一家的系統能實現真正意義上的自動駕駛。

某些時候,車企還出於增加賣點、吸引資本注意的目的,誇大自己的自動駕駛功能,甚至暗示消費者無需接管。

在很長一段時間裡,特斯拉就將AutoPilot(高階輔助駕駛系統),當成“自動駕駛”對外宣傳,直到發生多次安全事故,才不得不改口。而即便現在,特斯拉最高階的軟體包FSD,也被稱為完全自動駕駛。馬斯克還聲稱,這套方案足夠實現“完全自動駕駛”,“完全的意思是,汽車能夠從家中開車去工作,在途中幾乎不需要駕駛員操作。”

把視角放回國內,蔚來汽車在Nio Day上釋出了預計在今年四季度交付的首款電動轎車ET7,同時釋出了首個自動駕駛平臺系統NAD(Nio Autonomous Driving),表示將從輔助駕駛(assisted driving)升級為自動駕駛(autonomous driving)。

儘管很多車企、自動駕駛技術廠商,都聲稱自己擁有L3以上級別的自動駕駛技術,但實際上可能沒有這麼樂觀。

為此,自動駕駛公司Waymo執行長John Krafcik就透過媒體回懟了馬斯克:Waymo研發的是“完全自動駕駛系統”,特斯拉提供了“較為出色的駕駛輔助系統”,兩家公司在自動駕駛領域聚焦的並不是同一件事情,根本無法相提並論。

Waymo還指責自動駕駛一詞正在被一些汽車企業濫用,這會使得公眾誤解輔助駕駛系統功能。最近,德國法院也在禁止特斯拉在其網站及其他廣告中使用帶有“Autopilot”或“完全自動駕駛功能”的字眼,理由是存在誤導傾向。

無法避免的corner case

除了部分企業對自動駕駛的宣傳存在問題外,長期研究AI的技術人員李亮還表示,目前自動駕駛的演算法本身也存在侷限性。“所有新造車在做自動駕駛的時候,其實靠的是AI演算法,也就是基於深度學習,或者說深度神經網路的原理去實現的。”

深度學習的工作原理是怎麼樣的?李亮舉了一個例子:你給AI機器看貓的照片,這些貓各有各的形態和顏色,給機器看了100張之後,系統能夠根據機率推算出下一張新的照片是不是一隻貓。

因此,深度學習的判斷邏輯是基於相關性的,機器會根據機率推導。比如,90%的機率由a推導到b,10%的機率由a推導到c,但是深度學習是沒有探索環境的因果模型,哪些事件導致了其他事件,以及下一步會發生什麼,目前的深度學習是無法判斷的。說白了,深度學習還不能理解因果關係,也就意味著,總會出現一些極端情況是機器無法識別的

“這在專業領域叫corner case(邊角案例),按照深度學習的邏輯來說,AI是按照相關性來判斷事物的,所以永遠無法達到100%的準確率。”李亮進一步解釋道,而AI的學習原理決定了它只認識之前見過的,而無法識別新接觸的事物,“當面對訓練資料中未包含的新情況時,它們沒有人類的創造性和靈活性,也很容易出問題”。

不過,儘管各家的宣傳都說自家的技術在L2或L2級別以上,可實際上研發配置的自動駕駛技術水平參差不齊

就現階段來說,新造車陣營的自動駕駛技術更值得關注,比如自動輔助導航駕駛功能(即 Navigate on Autopilot)。其中特斯拉、蔚來、小鵬各家都先後釋出了此種功能,只不過名稱不同。

所謂自動輔助導航駕駛功能,就是在L2輔助駕駛導航的基礎上,結合了車機導航的資訊,可以根據設定的路段,在高架、高速路上實現自動調節限速、自動變道超車、自動進出匝道等功能。這些功能向更高級別的自動駕駛更近了一步,算是自動駕駛中比較高階的功能,但仍屬於L2級別的範疇。

以在高速上出入匝道這一功能為例,李亮稱,實現這一功能,需要輸入龐大的資料包,包含大量的路況如路牌、出入口的資訊等,透過晶片計算出具體的資訊,再將資訊傳導到電機、剎車轉向燈等硬體上,也就是說,做到這一功能其實需要強大的資料處理能力、以及相應的硬體支援能力。

“真正能夠做到這些的企業,並不多。”他表示。

13
最新評論
  • 路虎是印度還是英國的
  • 長城汽車開始自產差速鎖,計劃今年第三季度投產