2020年並不缺重磅新聞,但人工智慧依然夠殺出重圍,走進主流視野。
尤其是GPT-3,它展示了人工智慧即將以全新的方式深入我們的日常生活。
這些進步賦予了未來很多可能,預測未來變得並不容易,但伴隨著技術應用的成熟,另一些領域的突破也是可預見的。
以下是2021年人工智慧有望取得突破的幾個方面。
GPT-3和AlphaFold背後的Transformer2020年最大的兩項人工智慧成就悄無聲息地共享著相同的基本結構。OpenAI 的 GPT-3和 DeepMind 的 AlphaFold 都是基於Transformer.
儘管 Transformer 自2017年以來就已經存在,但 GPT-3和 Alphafold 展示了 Transformer 的非凡能力,它比上一代序列模型學習得更深入、更快,並且在自然語言處理(NLP)之外的問題上也表現出色。
與迴圈神經網路(RNN)和 長短期記憶網路(LSTMs)等之前的序列模型結構不同。
Transformer能夠一次處理整個輸入序列,並且引入「注意力」機制來了解輸入的哪些部分與其他部分相關。
這樣,Transformer就能夠輕鬆解決「長期記憶」的問題,這是迴圈模型一直在努力解決的問題。
另外,Transformer還允許並行訓練,能夠更好地利用近年來出現的大規模並行處理器,大大減少了訓練時間。
毫無疑問,2021年研究人員將為Transformer尋找新的用武之地,對Transformer將要帶來突破也充滿信心。
2021年,OpenAI 已經修改了 GPT-3,釋出了DALL-E,使其完成從文字描述生成影象。Transformer已經準備好要在2021年大展拳腳了。
2021年,圖神經網路(GNN)發展的兩大看點許多領域的資料自然而然地適用於圖形結構,比如計算機網路、社交網路、分子/蛋白質和運輸路線等。
圖神經網路(GNNs)使深度學習應用於圖形結構化資料,我們期望 GNN在未來發揮更大的作用。
2021年,我們預計在幾個關鍵領域的方法進步將推動更廣泛地應用GNN.
「動態圖」是第一個重要的領域。儘管迄今為止大多數 GNN 研究都假定了一個靜態圖,但這些情況會慢慢發生變化: 例如,在社交網路中,新成員的加入會產生新的節點 ,關係也會發生變化。
在2020年,我們看到了一些將時間演化圖建模為一系列快照的做法,2021年這個新生的研究方向將會擴充套件,側重於將動態圖表建模為連續時間序列的方法。
這樣的連續建模,除了通常的拓撲結構外,還應該使 GNN 能夠發現和學習圖中的時態結構。
對「訊息傳遞正規化」的改進將是另一大可操作的進展。訊息傳遞是實現圖神經網路的一種常用方法,它是透過沿著連線鄰居的邊「傳遞」資訊來聚集節點資訊的一種方法。
雖然直觀,訊息傳遞難以捕捉到需要資訊在圖上長距離傳播的效果。
2021年,我們期待突破這一正規化,例如透過迭代學習哪些資訊傳播路徑是最相關的,甚至學習一個全新的關係資料集的因果圖。
值得說明的是,由於GPT-3的API將更加可行,依賴於自然語言理解的應用程式也會越來越多。API允許使用者訪問GPT-3的功能,並且無需耗費精力訓練自己的AI。
Microsoft已經獲得了GPT-3獨家使用授權,這項技術也許會出現在Microsoft的產品中。
在2021年,其他應用領域也將從AI技術中獲益。AI和機器學習雖然已經進入了網路安全領域,但2021年將會爆發更大的潛力。
正如太陽風駭客事件所揭露的那樣,一些公司已經面臨網路犯罪分子和先進的惡意勒索軟體的威脅。
2021年,我們還期待有更多預設在邊緣裝置上執行機器學習模型的應用程式。
像谷歌的 Coral這樣具有TPU的裝置,隨著處理能力和量化技術的進步,也能夠推廣普及。
圖為Carol加速器模組,帶有Google Edge TPU的新型多晶片模組。
Edge AI則消除了把資料傳送到雲上參照的需求,既節省了頻寬又減少了執行時間,這兩點對醫療保健等領域都至關重要。
邊緣計算的應用程式還可以在一些需要隱私、安全和低延遲的區域,甚至世界上無法訪問高速Internet的區域中開啟。
未來難測,未來可期隨著AI技術在實際領域的運用越來越廣泛,Transformer和GNN的進步也會促使它們在現有的AI技術和演算法更進一步。以上只是重點介紹了幾個有望在今年取得進展的領域,不過相信伴隨進展的還會有更多的驚喜。
未來難測,但無論對錯,2021年對於AI都將是令人興奮的一年。
參考連結:
https://venturebeat.com/2021/01/31/heres-where-ai-will-advance-in-2021/