回覆列表
  • 1 # cnBeta

    英偉達研究院在利用深度學習訓練各種任務模型方面取得了長足進展。最近,該公司讓BERT實現了有史以來最快的訓練時間並還對有史以來最大的基於轉型的模型進行了訓練。

    然而正如預期的那樣,基於深度學習的演算法首先需要一個龐大的資料集,這在許多情況下是一種奢侈品。除了繼續使用深度學習進行研究外,該公司還將精力集中到了另一個方向。據悉,英偉達在西雅圖機器人實驗室開發了一種新的演算法--6-DoF GraspNet,其能讓機器人抓取任意物體。

    6-DoF GraspNet的工作如下:機械手觀察物體並決定在6D空間(空間中的x、y、z座標平面和旋轉三維空間)中移動到哪裡。該演算法的設計方式是生成一組可能的握持器並根據需求進行移動。然後,整個握持器透過一個“握持評估器”執行,該評估器會為每個可能的握持分配一個分數。最後,握持評估器透過區域性變換調整握持變數進而提高最佳握持的成功率。整個過程如下圖所示:

    有趣的是,研究人員並沒有選擇基於深度學習的方法,反倒是選擇了“綜合訓練資料”。英偉達在這當中使用的Nvidia FleX評估法是一種基於粒子的模擬技術,它可以實時生成視覺效果。下面這張動圖展示了握持的進化過程:

    英偉達的研究人員表示,6-DoF GraspNet最大的優勢之一在於它可以用來抓取任意物體;其次是它的模組化,這使得它可以用於各種計算機視覺應用和運動規劃演算法;第三,它可以跟一個模型一起使用,該模型可根據各種物體的“點雲”來分配形狀,而這將能確保機械臂不會跟任何障礙物相撞。

    據悉,英偉達計劃在10月/ 11月在南韓舉行的2019年計算機視覺國際會議上展示這套6-DoF GraspNet。

  • 中秋節和大豐收的關聯?
  • 孩子十二歲近視200多度加散光,有人說長大了做手術,有人說做矯正,怎麼做合適?