首頁>科技>

編譯:Junefish、Olivia、雲舟

嗚啦啦啦啦啦啦啦大家好,本週的AI Scholar Weekly欄目又和大家見面啦!

AI ScholarWeekly是AI領域的學術專欄,致力於為你帶來最新潮、最全面、最深度的AI學術概覽,一網打盡每週AI學術的前沿資訊。

每週更新,做AI科研,每週從這一篇開始就夠啦

本週關鍵詞:CNN、紋理合成、Google Research展望2020

本週最佳學術研究

基於神經樣式轉移的APP樣式轉換

斯坦福大學的研究人員介紹了ImageNet,使得終端使用者和app開發人員可以通過樣式轉換的方法,使用他們選擇的影象來重新設定GUI的樣式。樣式轉移是指從參考影象中提取樣式並將其應用於輸入影象,是一項計算機視覺任務。

與傳統的影象轉換(如模糊、銳化和顏色轉換)相比,該技術使用了了可以生成更豐富、更美麗且更多樣化結果的結構。研究人員向50位評估者展示了使用ImagineNet和其他樣式轉換技術重新設計過的幾種GUI,而所有人都偏好ImagineNet設計的樣式。

與以前在內容中新增處理步驟以保留細節的做法不同,ImageNet從樣式中複製了更多資訊。該方法使終端使用者可以使用他們選擇的藝術品來重新設計app介面的樣式,從而有效地使著名藝術家的技能變得觸手可及。具體來說,ImagineNet可用於重新設計:

App的圖形資產包含使用者提供內容的app包含動態生成GUI的app

這個方法是未來技術發展的起點。即便是與當今最前沿的技術相比,我們也可以期待在未來看到更精美的app設計。

原文:

https://arxiv.org/abs/2001.04932v1

基於深度3D網路的按需實體紋理合成

在本文中,研究人員介紹了實體紋理合成的最新技術,然後介紹了使用卷積神經網路(CNN)進行2D紋理合成的一些成功應用。本文介紹的方法是採用CNN生成器按需合成實體紋理的首個方法。

按需生成實體紋理所需的部分對於穩定的紋理合成至關重要,因為對於大多數應用領域而言,以有用的解析度儲存整個實體紋理的價格是非常昂貴的。

該方法建立在先前基於示例合成2D紋理的CNN方法的基礎上,提供了僅生成實體紋理所需部分的功能。研究人員還提到了相關的使用2D檢視生成3D物件的CNN方法。

該方法可以得到一個簡單輕便的網路,可以在生成體積的橫截面沿著一到三個方向重現示例的視覺特徵。

紋理合成可以用於填充影象中的空隙(例如修復),擴充套件小圖片和生成巨大且不重複的背景影象。

本文提出的方法是有關的常規按需技術的必要改進。它僅生成必要的實體元件,因此有助於加速紋理化表面並節省記憶體。它很好地解決了基於補丁的2D和實體紋理方法遺留的問題。

該方法證實了合成逼真紋理的能力,也是向實現3D計算機圖形、影象編輯、電影后期製作等領域的穩健應用邁進的重要一步。

原文:

https://arxiv.org/abs/2001.04528v1

GoogleResearch:回顧2019,展望2020和更遠的未來

GoogleResearch專注於解決對人們的日常生活有極大幫助的問題。他們在最近釋出的一篇文章中公佈了2019年所做的所有研究工作。

他們在各種基礎研究領域取得了進展、開源了各種程式碼並與各種團隊繼續合作來構建對終端使用者更有用的工具和服務。

例如,在發展開發人員和AI研究社群方面,他們推出了TensorFlow 2.0,使ML系統和應用變得更加容易。他們還增加了對移動GPU推斷的支援,推出了Teachable Machine 2.0(無需編碼即可訓練ML模型的工具)等。

在資料集領域,他們啟動了多個數據集,來幫助ML社群探索不同的研究領域並負責任地共享開放資料。

大致來講,你會在本文中找到一個令人興奮的摘要(你肯定不想錯過),其中列出了2019年完成的研究的全部清單,涉及包括AI倫理學、AI 造福社會、AI挑戰、輔助技術、量子計算、通用演算法和理論、AutoML、自然語言理解和機器人技術等在內的很多領域。

對於Google Research以及更廣泛的研究社群而言,這是令人振奮的一年。就像Google Research一樣,整個機器學習社群應該為我們在2019年的成就和2020年面臨的挑戰而感到興奮。

原文:

https://ai.googleblog.com/2020/01/google-research-looking-back-at-2019.html

輕量級光流卷積神經網路

FlowNet和FlowNet2是實現光流估計的一些最新的CNN方法。但是要實現準確的流量估算,FlowNet2需要超過1.6億個引數,並且執行速度很慢。

為了應對這一挑戰,基於FlowNet2,研究人員現在開發了一種輕量且有效的卷積網路版本,他們將其稱為LiteFlowNet2。新方法通過採用資料保真和基於變分的正則化,解決了經典的光流估計問題。

相較於FlowNet2,新方法在Sintel和KITTI基準測試上都表現更好,模型尺寸小了25.3倍,執行速度快了3.1倍。LiteFlowNet2也在常規方法的基礎上,起到了類似於變型方法中資料保真和正則化的作用。

任何機器學習模型的目標都是在使用最少資源的同時獲得準確的結果。

與傳統技術相比,LiteFlowNet2具有輕量,準確和快速的流量計算功能,因此可以部署在諸如視訊處理,視覺里程計,運動分割,動作識別,運動估計,SLAM,3D重建等應用中。

網路協議與訓練模型:

https://github.com/twhui/LiteFlowNet2

原文:

https://arxiv.org/abs/1903.07414v2

如果機器人擁有計算機視覺魔法

計算機視覺處於快車道,而機器人技術處於慢車道。那麼,機器人專家如何才能進入他們從事計算機視覺同事的快車道?

計算機視覺和機器人技術研究社群都始於相似的起點,但現在在會議和期刊,研究方法和研究速度方面存在很大的分歧。計算機視覺是基於評估而不是實驗的,在過去的一年中研究人員漸漸意識到了對真實機器人進行評估的重要性,但與此同時也涉及許多挑戰。

在這項工作中,研究人員提出了許多大膽的斷言,他們認為應該在研究界內進行辯論,以提高我們機器人技術的集體創新速度。總結如下:

標準資料集+競爭(評估指標+競爭者+競爭)+快速傳播→快速進步沒有競爭的資料集對進度的影響收效甚微為推動進步,研究人員應將他們的思維方式從實驗轉變為評估模擬是我們重複評估機器人效能的唯一方法研究人員可以使用新的 和新的指標來推動研究社群的發展

為了增加真實機器人對視覺研究社群的訪問能力,他們提出並開發了BenchBot系統。BenchBot是一個線上門戶,它使世界各地的研究人員都可以在真實、公平和平等的環境中,遠端對各種型別的真實機器人進行機器學習和計算機視覺系統測試。

通過使研究人員訪問原本可能無法訪問的真實機器人,BenchBot的目標是使機器人民主化。它大大降低了研究需求門檻,無需擁有機器人、操作空間、操作人員或者精通ROS。

該程式碼已經開源,世界各地的其他研究實驗室都可以複製BenchBot的設定,甚至可以建立更多線上門戶,容納更多研究人員在真實的機器人硬體上遠端測試其演算法。BenchBot的最終目標是允許在真實機器人上測試各種演算法,成為機器人研究的標準化測試。

原文:

https://arxiv.org/abs/2001.02366v1

其他爆款論文

首屆語音識別系統錯誤糾正公開挑戰賽開幕,致力於提高自動語音識別系統的效能:

https://arxiv.org/abs/2001.03041v1

評估資料集移位下的預測不確定性。本文提出了關於現有分類問題最新方法的大規模基準,並評估了資料集偏移對準確性和校準的影響:

https://arxiv.org/abs/1906.02530

理論進,理論出:社會理論如何解決機器學習無法解決的問題。本文旨在指導計算機和社會科學家解決將機器學習工具應用於社會資料所涉及的問題:

https://arxiv.org/abs/2001.03203v2

代理可以類比學習嗎?與基於最新模型演算法的可推斷模型相比,PAC強化學習的計算效率更高:

https://arxiv.org/abs/1912.10329v1

第一次嘗試使用預訓練的深度學習模型來增強針對遷移學習的後門攻擊:

https://arxiv.org/abs/2001.03274v1

AI大事件

只有14.6%的公司在生產中部署了AI功能:

https://www.forbes.com/sites/gilpress/2020/01/13/ai-stats-news-only-146-of-firms-have-deployed-ai-capabilities-in-production/#7894fb7d2650

人工智慧和人類軟技能將成為2020年代的領導重點:

https://www.zdnet.com/article/ai-and-human-soft-skills-will-drive-leadership-priorities-in-2020s-linkedin-survey-finds/

披薩巨頭達美樂正在利用英偉達GPU來加速和改善其AI驅動的應用程式:

https://blogs.nvidia.com/blog/2020/01/13/dominos-pizza-ai/

Thanks for reading. If this newsletter lights you up, create a ripple effect by sharing it with someone else, and they will also be lit up! And, if you have suggestions, comments or other thoughts you can reach me at [email protected] or tweet at me @cdossman

最新評論
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 比特幣的瘋狂,把核電站拿來挖礦,大概全球就只有他舉國挖礦