回覆列表
  • 1 # 使用者6141168894592

    我認為,自動駕駛是早晚的事,現在看來,自動駕駛的普及速度比預想的還要快。自動駕駛一旦大規模普及,很多功能將會成為現實,比如:車輛可以像動車一樣編組執行以實現同步高速度的交通,車與車之間的通訊和互動可以實現高效的通行效率和極低的事故率,甚至不需要紅綠燈及各種複雜的交通標誌標線系統,總體的交通效率和安全性將大大提高,是革命性的。用不了多久,就會有人說:“開車這麼危險的事情,以前竟然讓人去做,這簡直太嚇人了,不可想象。”,當然“女司機”這個說法可能也要退出歷史舞臺了。很多朋友擔心交通基礎設施以及法律責任等問題,我覺得這點不用太擔心,自動駕駛普及的過程,也是相關的交通技術設施和法律不斷完善的過程。今天主要分析一下自動駕駛的技術層面,其他相關的道路設施及法律責任等問題在這裡不討論了。首先簡單說一下自動駕駛的原理。所有的控制系統都是由感測器、控制器和執行器組成的,從這個角度上講,自動駕駛原理其實和人工駕駛是一樣的,我們用眼睛觀察路況,而自動駕駛則是使用鐳射雷達、超聲波雷達、攝像頭、GPS等感測器來觀察路況確定位置。我們用大腦做判斷,自動駕駛當然就是用電腦作為控制器來判斷。然後我們透過手腳控制車輛方向盤、加速和剎車,自動駕駛也是根據電腦的輸出直接去控制車輛。看上去很簡單,但是要深入分析的話,特別是汽車這麼危險的東西,要想保證自動駕駛的可靠性的話,其實非常複雜。感測器方面,鐳射雷達和超聲波雷達當然都是用來測距的,理想狀態下車輛可以探測到周圍所有的障礙物並算出這些障礙物的距離,但是實際上,這些障礙物很可能會被誤判,比如風中飛舞的塑膠袋會被判斷為障礙物,甚至雨滴有可能被認為是障礙物。攝像頭更不用說了,單目或多目攝像頭利用計算機視覺讓自動駕駛汽車實時識別交通訊號燈、交通標誌、車道線、近距離低速障礙物等,同時加上與道路基礎設施以及雲端資料庫的通訊,實現諸多功能。但是,今年特斯拉自動駕駛出現的死亡事故很大程度上與攝像頭有關係。在逆光和大光比的情況下,攝像頭的分辨能力就降低了,當然還有低照度情況,這個受限於當前的影象感測器技術,懂攝影的朋友都會知道,機器視覺本來就是一個複雜的東西,同時攝像頭有可能被灰塵、眩光等各種不利因素影響,所有從可靠性上講,依然存在很多問題。當然除了這些判斷路況的感測器,汽車還有車速、加速度、轉角度等各種感測器。控制中心方面,接收這麼多感測器的資訊,進行分析處理,得出控制策略,下達控制指令,並且這個過程必須實時,所以控制中心必須具備高效能的實時運算能力。就硬體來說,自動駕駛的過程可容不得宕機,所以一般硬體都要用滿足高可靠性高效能的實時運算。就軟體來說,演算法就太重要了,自動駕駛的軟體演算法必須實現路徑規劃、躲避障礙物、加速度控制、姿態控制等等多種功能,但是目前並沒有哪種控制方式能實現完美的無人駕駛,很多時候廠家都會採用多種方式共同處理,比如模糊控制配合遺傳演算法、深度學習等等。作為也寫了好多控制軟體的答主來說,感覺這句話說的真是太對了:“99%的情況使用1%的程式碼就可以應付,而剩下的1%的情況需要用99%的程式碼去處理。”執行器方面,一旦得到了控制指令,讓汽車去執行,這一部分就目前來說還算是不錯的,特別是電動車。電動機極高的效率、優良的調速效能、寬泛的調速區間決定了電動車更容易實現自動駕駛,而普通汽車經過多年的發展,其發動機自動控制系統、自動變速箱、電子制動等系統的控制也已成熟,ESP、TCS、定速巡航、自適應巡航等系統也已經廣泛使用,與自動控制系統對接並不麻煩。下面說說中國的無人駕駛研究情況和美國的研究進展情況,然後看看差距。國內國防科大早在1992年成功研製出中國第一輛真正意義上的無人駕駛汽車。2007年,與一汽共同研發紅旗無人駕駛車,該車主要使用CCD影象感測器和鐳射雷達作為感測器,實現了高速路的無人駕駛。2011年國防科大自行研發的HQ3,實現了從長沙到武漢286公里的路試。吉林大學研發了JLUIV-1型無人駕駛車,使用的是模糊控制加遺傳演算法修正的方式。上海交大在2005年就與歐盟合作Cyber C3專案,研究面向城市環境的區域交通智慧車輛。2012年,軍事交通學院的“猛獅三號”,配備5個雷達,3個CCD影象感測器,1個GPS,以無人駕駛狀態行駛114公里,最高時速105km/h。2016年,北京理工大學設計了一款無人駕駛賽車,使用了雙目攝像頭用於行人偵測、避障這樣的區域性路線規劃。有意思的是,這車百公里加速僅3秒。2013年,百度也開始搞自動駕駛汽車,2015年12月初,百度無人駕駛汽車在北京進行全程自動駕駛測跑,實現多次跟車減速、變道、超車、上下匝道、調頭等複雜駕駛動作,完成了進入高速到駛出高速不同道路場景的切換,最高時速達100km/h。下圖就是百度的無人駕駛車。今年9月1日,百度宣佈其獲得美國加州第15張無人駕駛測試牌照。百度在無人駕駛方面投入可謂巨大,包括建立矽谷研發中心,聯合福特公司投資鐳射雷達廠商Velodyne (為谷歌提供鐳射雷達),早前百度還公佈了其“三年商用”、“五年量產”的目標。國內剛剛起步的無人駕駛技術研究是成為很多高階人才的關注點,前面說的北理工搞無人駕駛車的負責人姜巖,和原Intel中國研究院院長吳甘沙一起成立的馭勢科技,就是一家專門從事自動駕駛研究的公司,在雙目視覺方面有著深厚的技術積累,提供低成本純視覺的自動駕駛解決方案,在限制性環境的自動駕駛技術方面取得了相當的進展。當然類似的小公司還有很多,從不同的層面對自動駕駛技術展開研究。以上使用的技術基本上都是以CCD影象感測器、雷達測距等技術,簡單的高速路況下,幾乎都已經可以實現不錯的自動駕駛效能,但是城市道路路況,問題還是非常多,畢竟總體來看,國內的自動駕駛依然處於起步階段,還處於研發的原型驗證階段,與美國差距不小(不光自動駕駛,很多方面都是)。百度在這方面算是國內的領頭羊的,與NVIDIA合作,同時也和政府聯手推動自動駕駛技術。但是從路試距離上來說,百度相比谷歌也差得遠。類似馭勢科技這種專業公司的出現,也為國內的自動駕駛研究增添了一支強勁的力量。美國當然最牛最有代表性的就是谷歌和特斯拉。谷歌在軟體方面一直就是世界最頂尖的,雖然微軟和蘋果可能表示不服氣,但是我是這麼認為的。所以谷歌的強大優勢就是軟體和演算法。下面就是谷歌的自動駕駛汽車。谷歌的自動駕駛汽車具有GPS、攝像頭、雷達和鐳射感測器,可以以一個360度的視角從周圍環境中獲取資訊,從2009年開始,谷歌自動駕駛汽車在自主模式下已經行駛了120多萬英里,軟體已經知道了許多如何去應對不同情況的方法。下圖就是谷歌自動駕駛汽車眼中的世界。從圖中可以看出車身的各種感測器可以檢測到最遠達兩個足球場那樣範圍內的物體,包括人員,車輛,建築區,鳥類,腳踏車等,這輛車可以看到其他的車輛,這些車輛在圖裡用紫色的圖形來表示,騎腳踏車的人會用紅色標出,左上角轉角的地方會用橙色的圓錐來表示。它甚至可以識別交警的手勢,這是非常了不起的,也是谷歌強大的軟體演算法能力的體現。雖然谷歌的自動駕駛汽車可以根據收集到的資料來預測很多事情,比國內的強大許多倍,但是仍然會出現以前從來沒有發生過的情況。有一次,一輛測試中的自動駕駛汽車正行駛在山景城地帶,出現了一個坐著電動輪椅的女人在路上轉圈圈地追趕一隻鴨子,但是這輛車卻只能不斷試探並且降速來躲避這個女人。特斯拉強大在別人還在研究試驗的時候,它已經量產並大規模投入使用了。作為純電動,特斯拉在自動駕駛方便本來就具有優勢,同時特斯拉又特別執著於自動駕駛技術。目前跑在路上的特斯拉車型,實現 Autopilot 輔助駕駛使用了圍繞在車身周圍的 12 個超聲波感測器識別周圍環境、一個前置攝像頭辨別前方物體、一個前置雷達也對前方物體進行識別,還有就是長時間路試積累來的高精度衛星地圖。這樣實現了下表中的“部分自動駕駛”功能。而特斯拉在今年10月20日非常激動的宣佈:從今天開始,所有在工廠生產的特斯拉車型 -- 包括Model 3--- 將配備具有全自動駕駛功能的硬體,相比人工駕駛,新硬體將從根本上提高車輛行駛的安全性。該系統將包含8個攝像頭,覆蓋360度可視範圍,對周圍環境的監控距離最遠可達 250 米。除此之外,車輛配備的12 個超聲波感測器完善了視覺系統,探測和感測硬、軟物體的距離接近上一代系統的兩倍。增強版前置雷達透過冗餘波長提供周圍更豐富的資料,雷達波可以穿越大雨、霧、灰塵,甚至前方車輛。為了更好的使用這些資料,車輛搭載了比上一代運算能力快40倍的處理器,執行特斯拉基於深度神經網路研發的視覺系統、聲納與雷達系統軟體。綜上所述,該系統提供了一幅駕駛員用眼睛無法觸及的世界影像,透過波段同步檢測車輛周邊每一個方向,這一切遠遠超越了人類的感官。特斯拉把感測器佈滿了全車。8 個攝像頭提供 360 度的視覺監控,最遠能夠監控 250 米範圍內的物體,12 個超聲波感測器覆蓋的範圍是之前 Autopilot 系統的兩倍。一個加強版雷達用來在雨雪大霧天氣下探測前方車輛。這些硬體使特斯拉的自動駕駛可以達到“高度自動化”的程度。另外,特斯拉路上跑的車型,都用自己的各種感測器為特斯拉的高精度衛星地圖在做貢獻,這一點是谷歌也比不上的,畢竟谷歌就那麼幾輛測試車跑來跑去,而特斯拉量產的車型都一定程度上是測試車。目前特斯拉 Autopilot 輔助駕駛的行駛里程已經達到了 2.22 億英里(約合 3.57 億公里)。所以總體來看,不論是谷歌還是特斯拉,其自動駕駛技術都要比國內先進,國內要追上,還需要時日。有時候,差距就是,看著很小,覺得一使勁就可以追上,然後就使勁,可剛要追上的時候,目標也加速了,差距反而更大了。

  • 中秋節和大豐收的關聯?
  • d2260動車是停運了嗎?