回覆列表
-
1 # 論智
-
2 # 大飛品樹莓
還有一種方案 我沒在樹莓派上用過(還沒買樹莓派,後面準備買),在x86上驗證完畢。
使用英特爾movidius神經加速棒來進行影象分類或目標檢測,movidius有arm版的庫,對樹莓派支援很好,詳細看github上 ncsdk。
方案如下
1 .採用python語言
2.使用opencv對影象或影片處理
3.使用ssd_moblienetv1版本(movidius有直接的demo),在x86計算機上使用640*480影片影象,壓縮成300*300轉入movidius,usb3.0介面能做到10幀/s,給出目標位置,目標分類和機率,當然可以多插幾個movidius來進行識別加速,每個影片影象輪訓的給各神經加速棒,沒試過樹莓派上能接幾個加速棒,還是看樹莓派的處理影象效能
4.使用百度網盤的介面,可以用樹莓派間隔識別後的圖片上傳到百度網盤上(github上油python工程,在x86已驗證好用),用百度網盤主要是免費,後期可以賣穩定的雲端
當然可以。
只不過,考慮到樹莓派的效能,比較好的方案是讓樹莓派做為一個客戶端,將影象傳送給更給力的機器進行機器學習推理。
比如,Kirk Kaiser就用樹莓派自制了一個抓拍小鳥的深度學習相機。
上圖為整個專案的總體架構。我們可以看到,樹莓派連線一個攝像頭,在樹莓派上運行了一個基於Flask搭建的web服務,透過WiFi網路將影象傳給主機。主機上執行基於TensorFlow實現的YOLO模型(可以實時檢測目標的深度學習網路)。一旦檢測到影象中有鳥,就將影象儲存下來。
基於Flask搭建的web服務,讓我們能夠透過瀏覽器方便地檢視影象。
具體而言,使用的模型是YOLO V2 tiny版本,與完整版本相比,準確率稍低一點,不過好處是算力負擔輕,甚至可以在CPU上執行(理論上可以直接在樹莓派上跑,當然速度可能會很慢)。
以上圖片均來自於Kirk Kaiser的部落格文章(www.makeartwithpython.com/blog/poor-mans-deep-learning-camera/)。
所有程式碼可以訪問GitHub獲取:github.com/burningion/poor-mans-deep-learning-camera