回覆列表
-
1 # 最愛賓士g
-
2 # GAC朱德勒
現階段無人駕駛汽車一般是利用車載感測器來感知車輛周圍環境,並根據感知所獲得的道路、車輛位置和障礙物資訊,控制車輛的轉向和速度,從而使車輛能夠安全、可靠地在道路上行駛。
未來5G普及後會運用到無人駕駛汽車上,透過衛星定位系統與5G網路無縫連線,將周圍的環境情況資料透過更智慧的ECU處理,安全性大大提高。
現階段無人駕駛汽車一般是利用車載感測器來感知車輛周圍環境,並根據感知所獲得的道路、車輛位置和障礙物資訊,控制車輛的轉向和速度,從而使車輛能夠安全、可靠地在道路上行駛。
未來5G普及後會運用到無人駕駛汽車上,透過衛星定位系統與5G網路無縫連線,將周圍的環境情況資料透過更智慧的ECU處理,安全性大大提高。
及無人駕駛汽車識別物體和周圍環境的時候,我們首先要意識到視覺識別對於無人駕駛汽車到底意味著什麼?
可以說,正是因為視覺識別技術的進步,無人駕駛汽車的發展才存在可能;也正是因為視覺識別技術的制約,無人駕駛技術的進展一直蹣跚而行。這便是視覺識別技術對無人駕駛汽車發展的重要性。
汽車實現智慧自動化的前提必須滿足兩個條件:其一,滿足現實環境對無人駕駛汽車的要求。相比於智慧手機,無人駕駛汽車面臨的環境更為複雜,任何一個失誤都可能關乎生命安全;其二,能夠應對小機率事件,避免發生意外。無人駕駛汽車與智慧機器人的基本原理和社會環境基本相似。在機器人研究領域,機器人學家將這種只在1%時間內才發生的突發性小機率事件稱之為「極端事件(Corner Cases)」。極端事件的不尋常之處在於,很少發生,但是一旦發生卻可能導致災難性後果。
2018年 3 月 19 日,正在美國亞歷桑納州坦貝市進行無人駕駛測試的Uber測試車輛撞死了一名女子。當時,該名女子從陰影處走出,試圖穿越馬路。事故發生時,無人駕駛測試車輛處於自動駕駛狀態,同時,駕駛座位上有人操作。經過調查顯示,坦貝市警察局長莫伊爾表示:「初步來看,在這樁車禍裡,優步(Uber)可能沒錯。」
避免極端事件的發生才是無人駕駛面臨的關鍵瓶頸,否則,無人駕駛汽車觸手可及。在2015年,駭客George Hotz只用一個月的時間就用鐳射雷達、攝像機、電腦、網路交換機和GPS感測器在車庫裡改裝了一輛白色2016款本田謳歌ILX。
在280號洲際公路上,霍茲試驗了他的無人駕駛汽車。使用自動駕駛模式的改裝車以105Km的時速順利通過了S彎。在即將透過第二個彎道的時候,改裝車突然駛向右側的一輛SUV,但及時自動矯正了行駛路線。試驗成功的無人駕駛汽車執行讓Hotz信心爆棚,聲稱再過幾個月的改進,這輛改裝車上的軟體能夠在效能上超越Tesla S的定速自動行駛模組。一向狂妄的Tesla CEO 埃隆·馬斯克並沒有置若罔聞,而是嚴肅的回答了這個問題。他在Tesla網站上鄭重其事的向Hotz說明了自動駕駛的真正難題:「把機器學習系統做到99%的準確率相對簡單,但是在這個基礎上再提升0.9999%的準確率卻非常難,而這0.9999%才是根本性的需求。去看看每年一度的機器視覺競賽就能知道其中緣由了,電腦在判斷什麼東西是狗的問題上準確率可以高達99%以上,但可能偶爾也會把盆栽植物錯認為狗。如果在以每小時70英里的速度行駛時犯下這種錯誤,那麼後果將十分嚴重。」
Hotz和馬斯克的爭執聚焦在了準確率上。其實,Hotz早已心知肚明。對於無人駕駛的技術問題,Hotz認為:「預設規則有致命的缺陷,畢竟現實中有著太多的突發情況和不確定性,預設的規則並不能窮盡所有的可能。最好的方式是讓車子學會像人類一樣,綜合處理各種視覺訊號,並基於駕駛經驗做出判斷,而不是依靠生搬硬套各種規矩。」
最近,外媒報道了福特汽車在倫敦開展的一個專案。該專案由福特智慧移動出行(Ford Smart Mobility)部門負責,在追蹤車輛上安裝一個外掛,監測車輛的剎車、剎車程度甚至是否使用了危險警告燈等駕駛資料,以此資料為基礎,構建演算法,幫助確定未來交通事故可能發生的地點。相比於無人駕駛車輛,該專案使用的是人類駕駛的車輛,尚不存在視覺識別的問題,但是即便如此,交通事故依然受到周圍環境的嚴重影響。福特智慧移動出行部門城市資料解決方案(City Data Solutions)專案負責人Jon Scott就說到:「我們相信,我們的演算法可使數百萬人受益。即使非常小的改變(如砍掉遮住道路標誌的一棵樹)都可能對交通流量、道路安全和道路效率產生很大的影響。」
與此同時,視覺識別幾乎已經成為汽車企業在無人駕駛領域軍備競賽的「核武器」。最近,沃爾沃公佈了與自動駕駛汽車感測器企業Luminar合作研發的鐳射雷達感測技術。這項技術利用脈衝鐳射訊號探測物體,可以為自動駕駛汽車提供遠端感應能力;同時,這項技術能夠透過鐳射雷達探測遠達200米內的人體和其他物體,而探測精度可以具體到移動的人體和四肢。
國內ADAS高階駕駛輔助系統和自動駕駛系統零部件安智汽車和中汽研聯合推出搭載了安智汽車77GHz毫米波雷達系統及智慧視覺系統的測試車,可在煙霧+黑夜工況下對移動/靜止行人進行精準探測,並實現惡劣工況下的AEB自動緊急制動系統功能。在惡劣環境下,準確識別物體和周邊環境能夠有效的降低交通事故率。據Euro NCAP研究資料顯示,AEB系統每年將幫助交通出行領域減少27%事故,挽救約8000人的鮮活生命,同時減輕交通事故帶來的嚴重傷害和損失。
在視覺識別領域,無人駕駛汽車的進步要感謝華裔美籍科學家李飛飛。她是美國斯坦福大學教授、斯坦福大學人工智慧實驗室與視覺實驗室負責人、谷歌雲人工智慧和機器學習首席科學家,斯坦福以人為本人工智慧研究院共同院長。在普林斯頓大學任職期間,她提出:「兒童透過視覺來認識世界,透過在幼年時期觀察無數的物體和場景來學習世界,或許計算機也能透過相似的方法學習,透過分析大量影象和影象間的關係來學習。」正是這樣一個設想奠定了 ImageNet 的基礎,成為「組織整個世界的視覺概念的一種方法」。2009年,李飛飛帶領的團隊建成了擁有320萬張影象的大規模資料集,可以支援技術人員透過ImageNet訓練他們的視覺識別技術的演算法。這項技術極大的提升了視覺識別的準確率。到2017年,計算機影象識別的準確率從2012年85%提升到97%。從某些方面來看,這種進步讓計算機比人類的識別能力更高一籌。也正是這種進步,ImageNet使深度學習技術的獲得了極大發展,奠定了無人駕駛汽車、面部識別、能識別物體的手機相機等技術的基礎。