SLAM現在可做的有幾點:
1. 用CNN產生深度圖,並用SLAM產生的位姿變換矩陣將上一幀的深度圖變換為該幀的深度圖,將此種方法生成的深度圖和CNN直接產生的該幀深度圖做比較。
2. 解決單目SLAM在場景深度突變時尺度不準的問題。可根據影片流中歷史幀的資訊來判斷。
------------------BY-------------------
1. CNN-SLAM 平面檢測、SLAM和CNN融合
2. Unsupervised Learning of Depth and Ego-Motion from Video 修改一下框架和內容
3. 用Faster R-CNN 檢測動態物體,並在靜態場景重建時剔除。
4. 語義SLAM:先用語義分割檢測到物體,再用SLAM進行三維資料標註。
5. 研三學長:稠密地圖中加定位。
6. XF:用DL提取特徵點(有不少paper),並進行幀間匹配。
7. XF:給特徵點加上語義資訊,提高匹配準確性和成功率。
8. XF:借RNN利用影片流的歷史資訊,RNN有兩個變種。目前如何定義輸入是個問題。
9. XF:有contribution的一個方向。
SLAM現在可做的有幾點:
1. 用CNN產生深度圖,並用SLAM產生的位姿變換矩陣將上一幀的深度圖變換為該幀的深度圖,將此種方法生成的深度圖和CNN直接產生的該幀深度圖做比較。
2. 解決單目SLAM在場景深度突變時尺度不準的問題。可根據影片流中歷史幀的資訊來判斷。
------------------BY-------------------
1. CNN-SLAM 平面檢測、SLAM和CNN融合
2. Unsupervised Learning of Depth and Ego-Motion from Video 修改一下框架和內容
3. 用Faster R-CNN 檢測動態物體,並在靜態場景重建時剔除。
4. 語義SLAM:先用語義分割檢測到物體,再用SLAM進行三維資料標註。
5. 研三學長:稠密地圖中加定位。
6. XF:用DL提取特徵點(有不少paper),並進行幀間匹配。
7. XF:給特徵點加上語義資訊,提高匹配準確性和成功率。
8. XF:借RNN利用影片流的歷史資訊,RNN有兩個變種。目前如何定義輸入是個問題。
9. XF:有contribution的一個方向。