首頁>科技>

驚人的論文……

> Pic credits : Pinterest

摘要—

量化投資旨在在一系列金融工具上的連續交易期間內,最大化回報,並最大程度地降低風險。最近,受AI技術的飛速發展和巨大潛力的啟發,該技術在定量投資方面產生了顯著的創新,因此越來越多地採用AI驅動的工作流進行定量研究和實際投資。在豐富定量投資方法的同時,人工智慧技術對定量投資系統提出了新的挑戰。特別是,用於定量投資的新學習範例要求對基礎設施進行升級,以適應更新後的工作流程;此外,人工智慧技術的資料驅動特性確實表明對具有更強大效能的基礎架構的需求。此外,應用人工智慧技術解決財務場景中的不同任務也存在一些獨特的挑戰。為了應對這些挑戰並彌合AI技術與量化投資之間的差距,我們設計和開發了Qlib,旨在實現潛力,增強研究能力並創造AI技術在量化投資中的價值。

論文可以在這裡找到:https://arxiv.org/pdf/2009.11189v1.pdf

程式碼可以在這裡找到:https://github.com/microsoft/qlib

摘要—

自我注意生成對抗網路(SAGAN)允許對影象生成任務進行注意力驅動的遠端依賴性建模。傳統的卷積GAN生成高解析度細節,僅作為低解析度特徵圖中空間上區域性點的函式。在SAGAN中,可以使用來自所有要素位置的提示來生成細節。此外,鑑別者可以檢查影象的遠處部分中的高度詳細的特徵是否彼此一致。此外,最近的工作表明,發電機調節會影響GAN效能。利用這種見解,我們將頻譜歸一化應用於GAN生成器,並發現這可以改善訓練動態。擬議中的SAGAN取得了最先進的結果,在具有挑戰性的ImageNet資料集上,將最佳已釋出的Inception分數從36.8提高到52.52,並將Frechet Inception距離從27.62降低到18.65。注意層的視覺化顯示生成器利用了與物件形狀相對應的鄰域,而不是固定形狀的區域性區域。

論文可以在這裡找到:https://arxiv.org/pdf/1805.08318v2.pdf

程式碼可以在這裡找到:https://github.com/brain-research/self-attention-gan

AdaBelief最佳化程式:根據觀察梯度中的信念調整步長

莊俊堂,湯米(Tommy Tang),丁一凡,Sekhar Tatikonda,尼莎·德沃涅克(Nicha Dvornek),色諾芬·帕帕德米特(Xenophon Papademetris),詹姆斯·鄧肯(James S.Duncan)

摘要—

最受歡迎的深度學習最佳化器可大致分為自適應方法(例如Adam)和加速方案(例如具有動量的隨機梯度下降(SGD))。對於許多模型,例如卷積神經網路(CNN),與SGD相比,自適應方法通常收斂速度更快,但泛化效果更差。對於諸如生成對抗網路(GAN)之類的複雜環境,自適應方法通常由於其穩定性而成為預設方法。我們提出AdaBelief同時實現三個目標:自適應方法中的快速收斂,SGD中的良好通用性以及訓練穩定性。 AdaBelief的直覺是根據當前梯度方向上的"信念"調整步長大小。將噪聲梯度的指數移動平均值(EMA)視為下一步的梯度預測,如果觀察到的梯度大大偏離了預測,則我們不信任當前的觀察結果,而是走了一小步。如果觀測到的梯度接近於預測值,我們相信它並採取了較大的步驟。我們在廣泛的實驗中驗證了AdaBelief,表明它在影象分類和語言建模方面具有快速收斂和高精度的效能,優於其他方法。具體來說,在ImageNet上,AdaBelief的準確性可與SGD相提並論。此外,在Cifar10上進行GAN訓練時,與經過良好調整的Adam最佳化器相比,AdaBelief表現出高穩定性並提高了生成樣本的質量。

論文可以在這裡找到:https://arxiv.org/pdf/2010.07468v4.pdf

程式碼可以在這裡找到:https://github.com/juntang-zhuang/Adabelief-Optimizer

全卷積網路的端到端目標檢測

王建峰,林松,李澤明,孫宏斌,孫建,鄭南寧

摘要—

基於全卷積網路的主流目標檢測器取得了令人印象深刻的效能。儘管它們中的大多數仍需要手動設計的非最大抑制(NMS)後處理,這阻礙了全面的端到端培訓。在本文中,我們對丟棄NMS進行了分析,結果表明適當的標籤分配起著至關重要的作用。為此,對於全卷積檢測器,我們引入了預測感知的一對一(POTO)標籤分配進行分類,以實現端到端檢測,並獲得了與NMS相當的效能。此外,提出了一種簡單的3D最大濾波(3DMF),以利用多尺度特徵並提高區域性區域卷積的可分辨性。藉助這些技術,我們的端到端框架在COCO和CrowdHuman資料集上使用NMS可以與許多最先進的檢測器相媲美。

論文可以在這裡找到:https://arxiv.org/pdf/2012.03544v1.pdf

程式碼可以在這裡找到:https://github.com/Megvii-BaseDetection/DeFCN

注意液體翹曲GAN:用於人類影象合成的統一框架

劉雯,樸志新,智途,羅文涵,馬琳,高盛華

摘要—

我們在統一的框架內處理人的影象合成,包括人的動作模仿,外觀轉換和新穎的檢視合成。這意味著該模型一旦經過訓練,便可以用於處理所有這些任務。現有的特定於任務的方法主要使用2D關鍵點來估計人體結構。然而,它們僅表達位置資訊,而無法表徵人的個性化形狀並模擬肢體旋轉。在本文中,我們建議使用3D身體網格恢復模組來解開姿勢和形狀。它不僅可以模擬關節的位置和旋轉,還可以表徵個性化的身體形狀。為了保留源資訊,例如紋理,樣式,顏色和臉部身份,我們提出了一種帶有"注意液體翹曲塊"(AttLWB)的"注意液體翹曲GAN",它將影象和特徵空間中的源資訊傳播到合成參考。具體地,透過降噪卷積自動編碼器提取源特徵以很好地表徵源身份。此外,我們提出的方法可以支援來自多個來源的更靈活的變形。為了進一步提高看不見的源影象的泛化能力,應用了一次/少量的對抗學習。詳細地,它首先在廣泛的訓練集中訓練模型。然後,它以自我監督的方式透過一張/幾張未拍攝的影象微調模型,以生成高解析度(512 x 512和1024 x 1024)的結果。此外,我們建立了一個新的資料集,即iPER資料集,用於評估人體運動模仿,外觀轉移和新穎的檢視合成。大量的實驗證明了我們方法在保持面部特徵,形狀一致性和衣服細節方面的有效性。

論文可以在這裡找到:https://arxiv.org/pdf/2011.09055v2.pdf

程式碼可以在這裡找到:https://github.com/iPERDance/iPERCore

10
最新評論
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 小米11全球首發驍龍888,為什麼是小米擠進了全球前三?