回覆列表
-
1 # cnBeta
-
2 # AI從業者
夜間目標檢測,用可見光攝像頭的話,成像效果受光線變化的影響較嚴重,即使有寬動態、黑光、星光等黑科技加持,但是目標檢測的效果也沒法與白天光線條件好的情況比的。
所以要從前端攝像頭,感測器進行改進優化了,最常用的就是使用紅外熱成像攝像頭,它感知物體表面的溫度輻射成像的,基本不受光照的影響,先天的優勢就是可以應用於沒有光照的夜晚。但是熱成像的缺點是不能識別出目標是誰,比如,演算法能檢出目標是人,但是不能識別出是張三還是李四。
同一視角下的熱成像與可見光畫面
當然除了熱成像之外,有毫米波、鐳射、雷達等,都可以在不受光照影響下檢測目標。只是在行業內,基本上用紅外熱成像的比較多。這裡就會牽涉到紅外熱成像的另外一個缺點:價格貴,與可見光的價格相比,是高一個量級的關係,即幾百對應幾千的概念,有些場景還會更高。
如果你要問有哪些夜間目標檢測效果好的演算法呢,其實大同小異了,yolo系列,rcnn系列,另外要有很多夜晚目標的訓練資料,然後就是訓練、驗證、測試了,基本上是哪個效果好,就用哪個模型了。
卡內基梅隆大學的研究人員開發出一種新系統,該系統使用GPU快速準確地檢測4K和8K影片中的物體。研究人員表示,雖然大量資料來源以高解析度記錄,但目前最先進的物體檢測模型,如YOLO,Faster RCNN,SSD等,只能處理具有相對較低解析度的影片,約為608 x 608畫素。
目前大多數模型使用這些影象有三個原因:它們足以完成任務;處理低解析度影象更具時間效率;許多用於訓練模型的公開資料集由低解析度影象組成。當然,低解析度的問題在於影片沒有獲得很多細節。隨著4K甚至8K相機的數量不斷增加,需要一種新的模型來分析它們。
卡內基梅隆大學的研究人員開發出的這種新系統,將物體檢測的任務分為兩個階段,兩個階段都涉及透過將原始影象與規則網格重疊來細分原始影象,然後將模型YOLO v2應用於快速物件檢測。開發者創造了許多小型矩形作物,可以透過YOLO v2在幾個伺服器工作者上以並行方式處理。第一階段將影象縮小為較低解析度並執行快速物體檢測以獲得粗糙的邊界框。第二階段使用這些邊界框作為注意圖來決定在高解析度下檢查影象的位置。因此當影象的某些區域不包含任何感興趣的物件時,開發者可以節省處理它們的資源。
研究人員在程式碼中實現了他們的模型,該程式碼將工作分佈在GPU上,在設法保持高精度的同時,在4K影片和8K影片上分別達到3-6fps和2fps的效能,與將影象縮小到低解析度的YOLO v2方法相比,該方法將平均精度得分從33.6 AP50提高到74.3 AP50。與在高解析度下處理原始影象的每個部分相比,這種方法將處理高解析度影象所需的時間縮短了大約20%。 這實際意味著近乎實時的4K影片處理是可行的。