首頁>汽車>

近日在比利時布魯塞爾舉辦的2019年AutoSens大會不乏技術創新,技術開發商、汽車Tier 1以及原始裝置製造商(OEM)都在探索能夠穩健地應對任何道路狀況的環境感知技術,例如黑夜、雨霧、風雪、道路冰凍等。

汽車產業尚未找到一劑通用的“靈丹妙藥”,各個公司都推出了它們自己的新感知技術或產品概念。

很明顯,業界不再否認,目前可以達到的技術與最終推出的商業化人工智慧(AI)驅動自動駕駛汽車(真正的無人駕駛)之間仍然存在著巨大的現實差距。

當然,需要指出的是,沒有人說自動駕駛汽車是不可能實現的。但是,據VSI Labs創始人兼負責人Phil Magney預測:“Level 4自動駕駛汽車將在嚴格限制的運營設計空間內推出,並基於非常完整且詳盡的安全案例。我的意思是指特定的道路、特定的車道、特定的運營時間、特定的天氣狀況、特定的時段、特定的上下車地點等。”

康奈爾大學(Cornell University)電腦科學教授Bart Selman在AutoSens閉幕小組會議上談及人工智慧驅動汽車是否能獲得“通常的感知理解(知道它實際上是在駕駛汽車並理解它的行車環境)”能力時,說:“這距離我們至少有10年時間,也可能是20~30年。”

在此同時,對於那些希望構建ADAS和高度自動化汽車的廠商,目前的主旋律是如何使車輛獲得最佳的“視覺”。

主流汽車成像技術

卡內基梅隆大學(Carnegie Mellon University)教授、Edge Case Research首席技術官Phil Koopman指出,所有高度自動化車輛的基礎都是“感知”——知道周圍的物體分別在什麼位置。他解釋說,與人類駕駛員相比,自動駕駛汽車的弱勢是“預測”,即了解行車環境並預測感知到的物體下一步可能去往何處。

邊緣智慧

AutoSens大會上新湧現出的一種趨勢,是為車輛增加更多的邊緣智慧。許多供應商通過在邊緣融合不同的感測器資料,例如“RGB攝像頭+近紅外(NIR)感測”、“RGB攝像頭+短波紅外(SWIR)感測”、“RGB攝像頭+鐳射雷達(LiDAR)”、“RGB攝像頭+雷達”等等,在邊緣感測節點上增加更多的智慧。

2012~2024年汽車攝像頭模組市場營收,全球汽車攝像頭模組市場在2018年達到30億美元規模,預計2024年將達到57億美元,2018~2024年的複合年增長率(CAGR)為11%。

不過,產業對於如何實現這一目標還存在分歧。有些廠商選擇在邊緣促進感測器融合,另外一些廠商(例如Waymo),則更傾向於在中央處理單元對原始感測資料進行集中融合。

到2020年,歐洲新車評價規程(NCAP)要求駕駛員監控系統(Driver Monitoring System, DMS)納入主要安全標準。在AutoSens大會上已經出現了許多新的監控系統。這些系統不僅可以監視駕駛員,還可以監視車內的乘客或其它物體。

其中的一個典型例子便是安森美半導體(On Semiconductor)展示的新型RGB-IR影象感測器,整合了Ambarella的先進RGB-IR視訊處理片上系統(SoC)和Eyeris的車載場景理解AI軟體,能夠執行復雜的人體和麵部分析、乘客活動監控和物體檢測。

近紅外 vs. 短波紅外

無論是車內還是車外,都需要在黑暗中獲得視覺能力,這意味著需要利用紅外(IR)技術。

安森美半導體的RGB-IR影象感測器採用了NIR(近紅外)技術,另一家參會廠商Trieye則通過展示的短波紅外(SWIR)相機,又邁進了一步。

SWIR的優勢在於能夠在任何天氣/光照條件下看到物體。更重要的是,SWIR還可以提前識別道路危險(例如道路結冰),因為SWIR可以檢測到每種材料由化學和物理特性所決定的獨特光譜響應。

然而,由於製造SWIR相機的銦鎵砷(InGaAs)成本極高,因此它大多還僅限於軍事、科學和航空航天應用。不過,Trieye聲稱,它們已經開發了一種使用CMOS工藝技術設計SWIR的方法。

“這就是我們取得的突破。從一開始,我們就像半導體一樣將CMOS用於SWIR相機的大批量生產。”Trieye執行長兼聯合創始人Avi Bakal說,“與價格超過8000美元的InGaAs感測器相比,Trieye推出的SWIR相機價格將會在‘幾十美元’左右。”

缺乏標註資料

人工智慧的最大挑戰之一是訓練資料的不足。具體來說是“標註的訓練資料”,Magney說,“推理模型的構建需要基於資料及其收集方式。當然,訓練資料需要用元資料標註,這非常耗時。”

在本屆AutoSens大會上,業界就對抗生成網路(generative adversarial networks, GAN)方法進行了熱烈的討論。據Magney稱,對抗生成網路,顧名思義就是兩個神經網路“競爭”以建立新資料。對於給定的訓練集,據報道,該技術將學習生成具有與訓練集相同統計資料的新資料。

例如,Drive.ai公司正在使用深度學習來增強資料標註的自動化,以加速繁瑣的資料標註過程。

在AutoSens的一次演講中,Koopman也談到了準確標註資料的巨大挑戰。他懷疑很多目前的測試資料仍然沒有標註,因為只有少數大公司能夠負擔得起。

確實,參會的AI演算法初創公司承認了第三方標註資料的費用之痛。

GAN是一種方法。但是,Edge Case Research提出了另一種無需標註所有資料即可加速更安全感知軟體開發的方法。該公司最近釋出了一種名為Hologram的工具,該工具提供了AI感知壓力測試和風險分析系統。據Koopman稱,無需標註數拍位元組(Petabytes)的資料,執行兩次Hologram就可以提供提示,哪些地方有問題,或者哪些地方需要通過收集更多資料或執行更多訓練來重複改善。

Algolux營銷和戰略合作伙伴關係副QuattroporteDavid Tokic表示,從事ADAS和AV的汽車工程師關注兩件事:1)所有條件下的穩健感知;2)準確且可擴充套件的視覺模型。

現在,ADAS或AV中應用的典型攝像頭系統各不相同,且差異很大,取決於它們的鏡頭(不同的鏡頭提供不同的視場)、感測器和影象訊號處理,因此引數都不同。一家公司選擇一種攝像頭系統,收集大資料集,並對其進行標註和訓練,以構建可調整適配系統的準確神經網路模型。

但是,當OEM更換最初用於訓練資料的攝像頭時會怎樣?這種變化可能會影響感知準確性,因為已為原攝像頭調整的神經網路模型現在需要處理一組新的原始資料。

這是否需要OEM重新訓練其資料集?

特斯拉(Tesla)、Waymo、通用Cruise在其自動駕駛車輛中使用了大量攝像頭

談及影象感測器的更換,VSI Labs的Magney說:“除非規格相同,否則我不認為這是一個好選擇。例如,在VSI,我們為FLIR熱像儀訓練了自己的神經網路,訓練圖是用與我們採用的相同規格的熱像儀收集的。我們後來更換了感測器,但更換的是規格相同的感測器。”

人工智慧(AI)硬體

過去幾年中誕生了許多新的AI處理器初創公司,掀起了AI熱潮,引領業界發出硬體復興的呼聲。並且,許多AI晶片初創公司都將ADAS和AV做為目標市場。

針對這一新興的AI加速器市場,AI處理器初創公司之一Ceva在AutoSens會議上首次展示了該公司的新AI核心和“Invite API”。

不過,奇怪的是,新一代功能豐富的車型還未真正啟用這些新的AI晶片,除了Nvidia、Intel/Mobileye設計的晶片,以及特斯拉開發的“全自動駕駛(FSD)計算”晶片等供它們自己使用的晶片。

另一方面,安森美半導體在AutoSens上釋出的“RGB +紅外”攝像系統,表明安森美半導體/Eyeris團隊選擇了Ambarella的SoC作為其AI處理器來執行車載監控任務。

Eyeris執行長Modar Alaoui承認Ambarella似乎不被認為是一支AI加速器開發團隊,而是傳統的視訊壓縮和計算機視覺晶片公司,他說:“我們沒有能找到可以支援10個神經網路、功耗不到5瓦,並能使用多達6個攝像頭(拍攝車內)捕捉每秒30幀視訊的AI晶片,以執行Eyeris的AI車載監控演算法。但是,Ambarella的CV2AQ SoC能夠滿足我們的要求,擊敗了所有其它正在熱炒的AI加速器。”

不過,Alaoui希望,在明年1月拉斯維加斯舉行的CES消費電子展之前,他們公司的AI軟體演算法可以應用到另外三家硬體平臺上。

安森美半導體、Ambarella和Eyeris演示了使用三個RGB-IR攝像頭的新型車廂內監控系統

同時,安森美半導體強調,駕駛員和乘員監控應用需要具有從Sunny直射到黑暗的可變光照下捕獲影象的能力。安森美半導體聲稱,憑藉其良好的近紅外響應,新發布的RGB-IR CMOS影象感測器利用3.0 µm背照式(BSI)和三重曝光HDR技術,可提供全高清1080p輸出。其感測器對RGB和IR光均敏感,可以在日光下捕獲彩色影象,在NIR照明下捕捉單色IR影象。

超越駕駛員監控系統(DMS)

Alaoui聲稱Eyeris的AI軟體可以執行復雜的人體和麵部分析、乘客活動監控和物體檢測。除了駕駛員監控之外,Eyeris的AI軟體還可以監控汽車內部的所有事物,包括座椅表面和方向盤。Alaoui表示他們的AI軟體已經超越了Seeing Machines公司所能達到的效能。

Seeing Machines公司歐洲客戶解決方案主管Laurent Emmerich不敢苟同。他說:“突破駕駛員監控,並覆蓋車輛內部是自然而然的發展方向。我們也正在這個方向發力。”

他補充說,與初創公司相比,Seeing Machines的優勢在於過去20年來AI專業知識在計算機視覺方面的積累。目前,該公司的駕駛員監控系統已被6家汽車製造商成功應用到9個專案中。

此外,Seeing Machines公司還表示,它們也開發了自己的硬體——Fovio驅動監視晶片。當被問及該晶片是否還可以服務於未來的車載監控系統時,Emmerich解釋說,其晶片IP將應用於可配置的硬體平臺。

感知冗餘

將多種不同形式的感測器組合裝配在車輛中,不僅可以提升車輛感知能力,還可以提供安全性必須的感知冗餘。

對於Outsight的3D語義相機中整合了哪些廠商的感測器,Cedric Hutchings拒絕發表評論。“由於我們仍在針對合適的規格引數和應用進行除錯,因此我們目前不會公佈我們的主要合作伙伴。”

不過,隨後Trieye在會上透露,Outsight將會採用Trieye的SWIR相機。Outsight的3D語義相機能夠通過板載SoC,在不依賴“機器學習”的前提下,提供可操作的資訊和物件分類,從而降低了系統所需要的功耗和頻寬。這款3D語義相機計劃於2020年第一季度出樣。

另外一家初創公司Aeye也在為ADAS/AV市場推銷其iDAR——一款融合了高清攝像頭的固態MEMS鐳射雷達。AEye產品管理副QuattroporteAravind Ratnam表示,通過組合兩種感測器並嵌入AI,這款實時執行的系統可以解決某些極端情況。

Aeye公司解釋稱,iDAR系統旨在將2D攝像頭RGB畫素和3D鐳射雷達的“體素”(XYZ)相結合,以提供一種新的實時感測資料型別,以更快的速度為自動駕駛車輛的路徑規劃系統提供更準確、範圍更廣、更智慧的環境資訊。

AEye公司的AE110產品效能與行業基準對比

Ratnam在演講中說,“AEye研究了300多個場景,選擇了56個適用案例,並將它們進一步縮小到20個場景,在這些情況中,融合了攝像頭、鐳射雷達和AI的感知系統最有意義。”

Ratnam展示了一個場景,在這個場景中,一名兒童將球拍到了街道上並追上了街道,而車輛正在駛來。在這個場景中,處於邊緣的攝像頭與鐳射雷達融合可以更快地工作,從而縮短了車輛的反應時間,更快的完成車輛制動。他指出:“我們的iDAR平臺可以提供非常快的計算速度。”

談及邊緣感測器融合的優勢,一位Waymo工程師表示,他不確定是否能帶來實質性的改變。他提出:“邊緣融合帶來的速度提升是微秒量級嗎?我不確定。”

AEye對其iDAR可以為Tier 1提供的附加價值充滿信心。通過與關鍵合作伙伴海拉(Hella)和LG的緊密合作,AEye表示已經能夠大幅降低iDAR的成本,現在能夠以ADAS的價格提供3D鐳射雷達。

AEye將在接下來的3~6個月內完成嵌入AI的車規級RGB攝像頭和鐳射雷達系統組合,並且價格將“低於1,000美元”。

IHS Markit預測的汽車鐳射雷達出貨量

IHS Markit汽車半導體和感測器高階分析師Dexin Chen向與會者表示,鐳射雷達開發商一直在“過度營銷,吹噓效能。”他指出,“展望未來,鐳射雷達帶來的物理引數優勢可以宣傳,但是否能真正商業化才是決定性的。這個領域非常需要的是,標準化、聯盟和夥伴關係,供應鏈管理以及AI合作伙伴。”

最新評論
  • 路虎是印度還是英國的
  • 汽車打火啟動一步到位很傷車,老司機都是這樣做的