首頁>科技>

某次,跟一個圈外的朋友聊起自動駕駛這個並不「太新鮮」的詞。「自動駕駛?最少還要 10 年。」這是他張嘴就來的答案。這也從另一個層面反映了,還有很多人不要說對自動駕駛,哪怕是輔助駕駛,其實都知之甚少。

因此我想如果有機會的話,我想採用最簡單的詞語來跟大家一起聊聊現在的自動駕駛程序,而這避不開的就是當下火熱的「鐳射雷達」。

首先,這要來看作為自動駕駛基本的三要素:感知 - 決策 - 執行。感知層是處於整個自動駕駛漏斗中最上端的步驟,感知準不準,對於後續的決策以及執行起了決定性的作用。

在這裡你可以腦補一個畫面,對於近視 500 度的人來說,帶不帶眼鏡開車是質的差別,而這就是「感知層」的重要性

鐳射雷達就是來解決這個問題的,它的重要性不僅僅是給機器戴上了「近視眼鏡」,更核心的是戴上這眼鏡,機器能感知的世界不僅能夠看得更遠,還能「360 度無死角」。

我們為什麼需要 LiDAR

之前的自動駕駛市場,高階玩家有谷歌 Waymo、Cruise 以及百度 Apollo 等,對於這些科技巨頭來說,他們的營收並不是賣車,而是賣系統以及解決方案。

因此他們的首要任務是先把「成品」做出來,也就是說他們可以不計成本地靠堆 BOM 來實現自動駕駛。

而對於「接地氣」的乘用車市場來說,採用科技巨頭的做法結局只會是:要麼生產出來的車賣個天價,要麼虧本賣出,當做慈善公益了。而商業化才是他們更要考慮的問題。

換句話說,他們要做的是有一定利潤且大多數人買得起的車。因此成本更低的毫米波雷達 + 攝像頭的融合方案變成了他們的首選,也就是我們經常聽到的 L2 級輔助駕駛。

而這套組合的能力上限並不高,很難實現真正意義上的自動駕駛。主要的原因就是感知能力不夠,說白了就是機器對這個世界的理解還不夠清晰。

先說毫米波雷達,它的主要功能在於測距、測速以及測方位角。原理就是不斷髮射以及接收電磁波,透過計算發射以及返回時間差來實現測距的功能,透過多普勒效應計算返回接收天線的雷達波頻率變化實現測速,再透過接收反射的電磁波相位差計算得到方位角。

在這裡,你可以腦補一下對著牆打乒乓球的畫面,毫米波雷達的原理就是透過計算乒乓球運動的軌跡,計算得出人與牆的距離,乒乓球的速度以及人與牆之間的角度差。

但毫米波雷達天生有很多不足,例如毫米波雷達即使裝備了 elevation 天線,也沒辦法感知高度,例如在車頭保險槓裝毫米波雷達,如果障礙物是橫在半空中,那麼毫米波雷達是監測不到的,因為高度不一致。

當然這只是一方面的不足,還有就是,大多數馬路上的物體都會產生回波,所以毫米波雷達必須要在演算法中過濾掉靜止物體產生的回波。比如在彎道中,正前方有個電線杆,毫米波雷達感應電線杆的回波就會判定為前方有障礙物,從而採取剎車的動作,出現詭異的「幽靈剎車」行為。而這也就是毫米波雷達對靜止物體幾乎沒有識別能力的原因。

另外,毫米波雷達對於透明物體不會產生回波,例如「水滴」。這會讓機器誤以為那是「無盡的道路」,這會直接導致雨天的感知精度下降。

說完毫米波,我們再聊攝像頭。

首先傻憨憨的機器肯定是沒有聯想能力的,所以它看不懂影片的含義。但它看得懂圖片,這是因為運用了人工智慧中的影象識別。原理是,機器會把影片拆分成一張張圖片,然後把圖片拉到最大,從最原始的「畫素 - 區域性 - 整體」三個步驟去識別這是個什麼東西。

而在這中間,必不可少的就是「演算法邏輯」,也就告訴機器這是個什麼東西,然後進行圖片歸類,這樣下次機器就能知道這到底是個什麼東西。

舉個簡單的例子,看這個車燈,我就知道這是一臺寶馬 5 系。為什麼我知道它是 5 系?因為第一我見過,第二我的腦子把它判定為 5 系。

那麼問題來了,一是假設這臺 5 系變成白色,我肯定還認識,那麼機器呢?二是假設現在有一臺奧迪 A4L,機器認識嗎?

答案是,一認識,二不認識。

先說第一個,是因為藉助了深度學習中的卷積神經網路。簡單來說,我分辨它是不是 5 系並不是靠顏色,而是更為核心的「車燈」。而卷積神經網路就是把圖片分成多個畫素區域歸類,如果有一個畫素區域對上,那就直接匹配,那麼這個時候傻憨憨的機器就學會了「思考」。

再說第二個,沒有見過的場景,機器當然不認識。這就是自動駕駛中經典的長尾效應,也就是沒有 100% 的安全,因為總會有機器沒見過的場景,就好像特斯拉已經實現了資料閉環,使用者會直接回傳道路資料給到特斯拉,然後由特斯拉進行演算法邏輯迭代後,再透過 OTA 反哺給使用者。

但目前量產車裡,也就特斯拉有足夠的算力、道路場景資料以及演算法邏輯去做這樣的事,那其他人呢?他們並不想爭第二,因此藉助「外掛」的行為就出來了,例如「高精地圖」,這個以後再說。

說回正題,攝像頭的「影象識別」在理論上可以補位毫米波雷達過濾掉靜止物體識別的問題,但這也是要基於優秀的演算法以及足夠多的道路場景資料,還要攝像頭能夠看得更遠。

但攝像頭也會因為外界環境變化而影響工作的穩定性,例如暴雨以及強逆光等場景下,一首「涼涼」最是應景。另外畫素清晰度以及距離測量不精準等問題,也是視覺方案的短板問題。

而最終毫米波雷達採集距離以及速度資訊,攝像頭採集道路影象資訊,各自把各自的資訊傳遞到晶片,由晶片做出決策,這就是「融合」。在這裡晶片的算力就顯得很重要了,但關於「晶片」也以後再說,今天的男主是「鐳射雷達」。

LiDAR 是幹啥的?

因為毫米波和攝像頭感測器的融合方案,在目前會受到天氣情況影響,而且高速場景中對靜止物體識別能力差,還有就是長尾效應,三個原因註定了車企用鐳射雷達「堆安全冗餘」是政治正確的事。

最核心的原因,還是鐳射雷達的成本快速下降。我舉個簡單的例子,幾年前一個 Velodyne 的 64 線機械式鐳射雷達成本還要 7 萬美金,而且要單筆訂單達到 100 萬美金才提供技術支援。而 Luminar 即將量產的 300 線 1550 nm 波長鐳射雷達,據官方的說法,軟硬體打包的價格不超過 1 千美金,這對車企來說,才是友好的價格。

回到正題,先簡單說下鐳射雷達的工作原理,主要是由鐳射發射器、光學接收器以及資訊處理三部分組成,它會不斷向外發射鐳射束,光束在遇到障礙物後會反射,再透過接收感測器,接收物體反射回的光脈衝。

根據已知光速(約為 30 萬千米/秒)計算出兩者訊號之間的時間差、相位差來確定車與物體之間的相對距離,再透過水平旋轉掃描或相控掃描測量物體的角度,再透過獲取不同俯仰角度的訊號,就可以獲得世界的高度資訊。

結合以上三種功能,鐳射雷達可以感知到與物體之間的距離以及角度,再透過軟體演算法去做 3D 建模,就能把我們人眼看到的真實世界做成一個機器能夠理解的虛擬世界。

在這當中,鐳射雷達每次發射以及接收鐳射資訊,透過這麼一個「閉環」的動作,獲得的位置資訊我們稱之為「點雲」。點雲越多,說明鐳射雷達對這個世界感知更為精準,當然需要處理的資訊也就越多,對應算力要求也就越高。

由於我們車是在移動的,環境實時在變,為了採集到完整的點雲資訊,感測器採集點雲的速度就要跟上,也就是「出點數」要夠多。但光看「出點數」依然不夠,掃描頻率以及測距取樣率也同樣重要,三者綜合起來看,構成了鐳射雷達對於位置資訊感知的實時性。說白了就是,要像人眼一樣,實時更新我們能看到的世界。

另外,為了能更大範圍地感知這個世界,鐳射雷達能感知到的角度就顯得非常重要。傳統的方式是採用旋轉元件,簡而言之就是讓鐳射雷達旋轉起來,進行 360 度掃描。

固態鐳射雷達也有相對應的解決方案,我舉個結構相對簡單的 MEMS 鐳射雷達為例,這種技術是透過轉動內建的一塊反光鏡來實現周圍環境的掃描,也就是把鐳射射向這塊不斷旋轉的反光鏡,再透過反光鏡反射到各個角度,從原理上看,跟以前小時候拿著鏡子反射太陽光的無聊玩法有異曲同工之妙。

透過以上方式,鐳射雷達可以向周圍發射鐳射點陣,同時還接收反射回來的鐳射脈衝,測量發射器與被測量物體之間的相對距離,直接可以獲得三維向量資料並結合自帶的定位系統,就能得知自己在環境中的準確位置,這比視覺方案中的二維平面圖像採用視差深度演算法相比更為精準。你可以簡單粗暴地理解為「目測」與「拿尺子測」之間的差別。

這不僅解決了靜態物體無法識別的問題,而接收反射回來的鐳射脈衝可以描繪出物體的形狀以及距離,其中含括了整個道路狀態以及其他交通參與者,這就可以構建出一個完整的機器能夠理解的道路場景了。那這樣就可以在技術層面上極大程度解決長尾效應帶來的問題。

另外鐳射雷達能做的事還有很多,例如透過不同物體發射回來鐳射訊號的不同,去給物體做分類,可以參考上文說的「卷積神經網路」,那麼這個時候鐳射雷達也可以學會「自我思考」。

由於鐳射雷達是自身發射鐳射束,相比攝像頭最大的優勢在於不受外界環境條件的影響,無論是夜晚還是白天情況下,工作都會更穩定。那麼至於如何應對「雨雪霧霜」極端天氣以及逆光的影響,請下下文。

我們需要什麼樣的 LiDAR

鐳射雷達是我見過分類最廣的物種之一了,按照線束來說,有 16 線、32 線、64 線以及茫茫多。按技術結構來看,分為機械式、混合固態以及純固態。另外非機械型鐳射雷達的掃描方式還有 MEMS、相控陣以及微透鏡陣列等。按發射器的波長來分,又有 905 nm 以及 1550 nm。

綜合所有,我先立個 Flag,真正符合車規級使用的鐳射雷達要先滿足 300 線,固態結構以及 1550 nm 波長這三個先決條件,其他的都是過渡技術

先說線束,這裡說的 300 線並不是類似機械式垂直排列了 300 條鐳射線束,而是透過序列以及並行的掃描方式,達到類似於 300 線的解析度,理論上以後哪怕 900 線也可以按照這樣的技術手法來實現。

再來看自動駕駛的實際場景需求,首先鐳射雷達要解決的是感知問題,線束越多,發射光脈衝更多,意味著獲取點雲資訊更多,對環境感知更為精準。而 300 線的鐳射雷達理論上可以實現影象級的識別精度,這對於傻憨憨的機器來說特別友好,還是那句話,只有這樣機器才能理解我們人眼看到的世界。

再說技術發展路徑,鐳射雷達分為機械旋轉式、混合固態以及純固態這三種。從成本、可靠程度來說,機械旋轉式註定不會被商業化應用。

因為我還沒見過哪個機器天天裸露在外面天天不停地瘋轉,而且還不壞的。一旦雷達故障了,還要請一個技術手法堪比瑞士手錶工匠水平的老師傅去更換零部件以及校準,這不僅「傷錢包」,而且體驗也不好。至於混合固態的鐳射雷達,同理,我也不看好。只有純固態鐳射雷達才是對「錢包」友好且穩定的。

最後再來聊一下波長,這裡多說幾句。為什麼我認為 1550 nm 波長的鐳射雷達才是符合車規級的,這裡涉及到鐳射輻射的安全性問題,而影響安全性的是波長、輸出功率以及鐳射輻射時間三者綜合作用的結果

首先強光在透過眼睛晶狀體時會聚焦到眼睛的視網膜上,而這個時候會給視網膜帶來一定的灼燒效果,而存在一定的風險。如果你小時候玩過放大鏡點火,應該就很好理解了。

另外補充一下,人眼可見光波長在 380-780 nm 之間,涵蓋的顏色是從紫到紅,這也就是你看到彩虹只有 7 種顏色的原因,因為其他的你也看不見。而這就意味著 905 nm 波長以上的光是屬於肉眼看不見的,再說得直接一點,就是大家眼睛被陽光直射時會難受,就是因為上述我說的強光透過晶狀體聚焦在視網膜上造成的。但由於陽光是可見光波長,我們還會主動躲開。

那 905 nm 是屬於不可見波長,如果高功率執行的話,當掃射到我們眼球時,我們怎麼躲,要往哪個方向躲,況且為什麼要我們去躲?這裡我要發出三大「靈魂拷問」。

因此出於保護人眼的原因,IEC 規定鐳射雷達的波長安全上限為 900 nm 左右,這也就意味著 905 nm 波長的鐳射雷達出於對人眼保護的原因,一定是保持低功率執行。當然應用在火箭以及國防場景的情況,例如 Space X,就不在本次討論範圍內。

但有意思的是,波長 1400 nm 以上的鐳射會在到達視網膜之前,就會被眼球的透明部分吸收完了,對人眼並沒有傷害,所以並不在 IEC 的規則內。因此 1550 nm 波長鐳射雷達可以相比 905 nm 波長提升 40 倍的功率執行,而提升功率帶來最直接的好處就是增加點雲解析度、更遠的探測距離以及增強複雜環境的穿透力

這三點都很重要,第一點不解釋了,更好的點雲解析度意味著更精準的感知能力。第二點,更遠的探測距離,直接意味著鐳射雷達在高速場景會不會「歇菜」。更遠的探測距離意味著更早的響應時間,可以預留足夠的距離冗餘,符合鐳射雷達本來就是用來做感知冗餘的功能。

至於那種 10% 的反射率下只有 100 米探測距離的車規級鐳射雷達,我直接點說,可以「返廠重造」了。哪怕你的車用 Brembo 卡鉗以及博世 iBooster 把速度 100 公里/小時的剎車距離堆到了 34 米,那時速 120 公里/小時的場景呢,難道又是靠無法感知高度的毫米波雷達嗎?

就算 100 米的探測距離能剎得住,可以保證安全,拋開車內人員乘坐的體驗不談,道路上的其他車輛也並不都是這樣的硬體。這裡再多說一句,任何廠商在釋出鐳射雷達時,只說最遠探測距離,而不說小於 10% 反射率下的探測距離都是「耍流氓」。

再說第三點,這才是「壓死駱駝的最後一根稻草」。這裡也呼應一下上文。全面自動駕駛意味著車輛要應付各種複雜的環境,其中就包含了「雨雪霧霜」,再極端一點就「沙塵暴」。

先說個常識,光波在大氣中傳播是會衰減的。因為與毫米波雷達「對半透明物體不會產生回波」不同的是,鐳射雷達在雨天、霧天的場景中,「水滴」這種半透明物體是會引起對脈衝反射的。

但只是「部分反射」且會向四周進行擴散,尤其是在「濃霧」的天氣下,這會造成反射訊號準確度的下降。舉個不恰當的例子,我們戴著的眼鏡如果起霧或有水滴,我們也看不清外面的世界,因為「水」會影響視覺效果。

而這個時候,鐳射雷達通常透過「提升發射功率」和「提升接收器敏感度」來提升整體的感知能力,而提升功率後,還能降低 1550 nm 會受到環境光照的影響,也就是針對「逆光」的場景,有了個靠譜的解決方案。不要忘了,提升發射功率就是 905 nm 波長的死穴,這就是我不看好 905 nm 波長的原因。

這裡多噴一句 905 nm,不要說什麼短波長具備更好的大氣穿透能力,要知道一旦功率上去 40 倍,那個穿透能力就不是短波長可以比的,另外透過技術升級來讓 905 nm 波長變得「穿透力更強且不傷害人眼」的前景也幾乎看不到,因為這個是物理特性決定的,就好像想通技術來改變「重力加速度」一樣,格林童話嗎?

另外我說一下,為什麼像 Velodyne 這樣的鐳射雷達巨頭公司至今還死守著 905 nm 波長,而且對外永遠說「夠用」了。首先 Velodyne 有將近一半的鐳射雷達份額來自非車業務,對於非車規級使用,905 nm 波長夠用這句話沒毛病。

而如果把 905nm 波長的鐳射雷達應用在自動駕駛車輛上,在這裡我非常贊同 Space X 創始人馬一龍先生說的,「傻子才用鐳射雷達,誰用鐳射雷達誰完蛋。」

說回來正題,1550 nm 相比 905 nm 波長,我認為還有個重要的原因,就是「接收感測器」的成本問題。905 nm 波長的接收器可以用矽來做原材料,而 1550 nm 是「光纖感測器」,而這種接收感測器要用到「銦鎵砷」這種材料,這種材料的成本是矽的 10 倍,而且目前還看不見成本下降的趨勢,這裡我補一句,拋開「技術壁壘」和「製造成本」談夠用,都是蒼白且無力的。

那這裡就要提一下 Luminar 這家明星公司,據官方公佈的訊息,首先他們的鐳射雷達在小於 10% 反射率的時候,探測距離為 250 米,符合我認知的車規級探測距離。

另外他們透過收購了 Black Forest Engineering 這家專門做銦鎵砷材料接收器的公司,再配合 Luminar 自己設計的 ASIC 整合晶片,成功解決了銦鎵砷的成本問題,目前可以把單個感測器控制在 3 美元,這個價格真香。

我以上的想法和言論,都是基於全面自動駕駛時代並結合極端場景下的思考。當然我也明白現階段受限於成本,還是會有一些車企會選擇裝配 10% 反射率下,探測距離不足 100 米以及 905 nm 波長的鐳射雷達,有的甚至還沒裝車。

但我想說的是,那樣的鐳射雷達,肯定不是「完全自動駕駛」,特殊場景依舊是需要人工介入的。

寫在最後

寫這篇文章的過程,經歷了蔚來 NIO Day 釋出了 Innovusion 的 300 線鐳射雷達,也經歷了 Mobileye 總裁兼執行長 Amnon Shashua 教授精彩演講,其中也確認了採用 Luminar 的鐳射雷達產品。

但最有意思的還是經歷了 12 月底的時候馬一龍先生另外一家公司 Tesla,被爆出使用 Luminar 的鐳射雷達在路測,我猜應該是在測試鐳射雷達能否解決視覺方案的痛點問題。

至於最終用不用鐳射雷達,我的理解,這不是「打不打臉」的問題,畢竟打臉對特斯拉來說是家常便飯的事,而更重要的是鐳射雷達的成本是否能達到馬一龍的心裡預期,畢竟特斯拉的願景是要加速世界向可持續能源轉變的,車價下不來,還怎麼愉快地加速轉變?

最後再回到行業來看問題,比拼硬體始終只會是自動駕駛的一個方面,就好像現在鐳射雷達已經是釐米級的定位精度,單顆晶片的算力也突破 200 TOPS,我也相信隨著技術的迭代「毫米級」鐳射雷達以及單顆晶片算力破千,在未來也不是夢想。

但更為重要的是各廠商如何把硬體有效地利用起來,那接下去比拼的就是軟體演算法層面,例如把毫米波、攝像頭以及鐳射雷達三者的感知資訊更好地融合、最佳化自動駕駛演算法邏輯,還有 5G 時代下的 V2X 應用場景。

而這一切的結合,才是自動駕駛有機會從夢想變成現實的基礎。

9
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 您真的瞭解傑夫·貝佐斯的一切嗎?再想一想!還有這10件事