首頁>科技>

人工智慧從20世紀50年代開始,經歷了60年起伏的發展歷程。其中,AI共經歷了2次發展的春天和冬天,現在正在經歷第3個春天,即以資料為驅動力的深度學習。谷歌的AlphaGo、AlphaZero、AlphaFold是很好的標誌性產品。

佩德羅·多明戈斯曾總結了 AI 的五大流派,包括符號、進化學派、類比學派、貝葉斯學派和連線機制。未來AI的發展 趨勢最大的可能是借各種流派之長創造新的AI演算法,既包含邏輯符號也有資料和知識,還要借鑑人類的進化和大腦的特點。所以,當前無論是科學研究還是產業發展,都在思考下一輪AI的突破點在什麼地方。

算力需求飛速增長的瓶頸

對深度學習來說,半導體與晶片架構領域的進步是不可或缺的發展動力。谷歌公司的傑夫·狄恩曾說過:“資料+演算法+算力=資料+100×算力”。也就是說,他認為在資料、演算法和算力三大因素中,算力佔據著絕對的主導地位,演算法則相對來說沒有那麼重要。

隨著時代的發展,深度學習在訓練過程中產生的計算量可以分成兩個階段:在深度學習發展的初期階段,訓練產生的計算量的增長速率相對較慢;近10年間,計算量以每年10倍的速率增長,遠遠超過摩爾定律每18~24個月提高2倍的增長速率。

深度學習訓練過程中計算量需求的發展

以OpenAI釋出的預訓練模型GPT為例,來說明近幾年來機器學習領域對算力需求的飛速增長。2018年6月釋出的GPT-1是在約5GB的文字上進行無監督訓練,針對具體任務,在小的有監督資料集上做微調,得到包含1.1億引數的預訓練模型;而2019年2月釋出的GPT-2則是在約40GB文字上進行無監督訓練,得到具有15億引數的預訓練模型;而2020年5月公佈的GPT-3則是在 499B tokens(令牌)的資料基礎上訓練,得到包含1750億引數的模型。在不到2年的時間內,模型引數從1.1億的規模增長至1750億,而單次訓練GPT-3就需要花費1200萬美元,模型在飛速發展的同時,帶來的是巨大的算力要求和高成本的代價。

傳統計算與通訊正規化的瓶頸

人工智慧領域對算力的需求驅動了新算力的發展。要想謀求更高效率的計算,就需要回到計算和通訊領域最基本的理論和正規化。在過去的幾十年間,湧現出了許許多多的定律和體系,而其中有三個定律和體系被視為計算與通訊正規化的根本。

第一個是夏農定律(Shannon Theroy)。夏農是資訊理論的奠基者,他引入了資訊熵的概念,為數字通訊奠定了基礎。其實夏農定律定義了三個極限,分別為無失真壓縮極限E、通道傳輸極限C、有失真壓縮極限R(D)。目前,我們已經接近這些極限。

第二個是馮·諾伊曼架構(Von neumann Structure)。在馮·諾伊曼架構中,計算機由運算器、控制器、儲存器、輸入裝置和輸出裝置5個基本部分組成,具有程式儲存、共享資料、順序執行的特點。馮·諾伊曼架構簡單且漂亮,是圖靈機的優秀範例,至今仍被廣泛地應用。然而,馮·諾伊曼架構的設計構成了運算器和儲存器間的瓶頸,這對深度學習的發展造成了一定的限制。

資訊理論的研究方向

第三個是摩爾定律(Moore's Law)。戈登·摩爾(Gordon Moore)總結認為,積體電路上可以容納的電晶體數目大約在18 個月左右便會增加一倍。而現在電晶體數目的增長越來越慢,摩爾定律逐步趨向於飽和階段,而我們對計算能力的需求卻飛速 提升,不斷提升的算力需求與晶片技術發展趨緩的矛盾日趨顯現。

計算體系與通訊架構的革新展望

在過去的60年裡,這三個基本理論在計算和 通訊領域建立了決定性的基礎,然而日趨逼近的極限也使得當前AI技術的發展逐步接近瓶頸。為了避免技術的停滯不前,產業界或許可以從以下三個方面做出一些突破和革新。

首先,對資訊重新定義。夏農於上世紀40年代對資訊熵、速率失真函式R(D)和通道容量C做出了定義,而這些定義是基於位元的基礎實現的。以影片影象舉例,過去我們一直採用位元來描述資訊;後來我們從數字的層面使用畫素、運動向量、宏塊(macroblock)和區域(regions)結合的方式來描述影象;之後我們上升到從內容層面來描述影象,比如一個身體部位是臉部還是手部等;現在我們對影象的描述上升到語義層面,比如“是誰”“在做什麼動作”“是否在睡覺”“眼睛在看什麼”等,這些問題從語義的層面描述了影象傳達的資訊。當資訊的描述方式發生變化時,熵的概念也發生了變化。比方說,過去我們用位元的形式來描述影象失真現象,而現在我們用生成對抗網路(Generative Adversarial Networks,GAN)生成影象,用肉眼來看GAN輸入的圖片和生成的影象幾乎是一致的,但是從位元層面 來比較,會發現二者十分不同。因此,如何從語義、特徵和內容的角度來定義熵與速率失真函式是我們未 來需要研究的問題。另外,夏農理論從最開始的點到點通訊,擴充套件到後來的多使用者資訊理論。但是在當下的網際網路時代,面對海量的互動資訊,部分夏農理論已不再適用,學術界卻沒有提出一個新的完善的理論。 過去的資訊更多的是人與人之間的傳輸,而現在的資訊則更多地面向機器,比如3D Point Cloud、3D SS、Genomics、Geometry等,所以我們需要新的演算法和新的標準。

計算體系與通訊架構的研究方向

第二,我們需要新的計算正規化。包括量子計算、類腦計算和生物計算等在內的新的計算正規化能夠為計算瓶頸提供解決途徑。

第三,我們需要新的計算體系和通訊架構突破馮·諾伊曼體系架構的限制。首先,我們需要新的感測器、新的資料流架構和計算模式,以及高速的儲存,這些都與傳統的馮·諾伊曼架構不同。我們還需要新的通訊架構,即5G技術和邊緣計算。5G技術首次在應用層上實現了“三網合一”,比提升傳輸的速度更加有效。此外,5G技術更好地解決了延時問題並帶來了新的應用,如百度的阿波羅專案中有一個服務叫做“雲代駕”,透過5G技術讓遠端的安全操作員實時瞭解車輛所處的環境與狀態,在自動駕駛無法完成的場景 下接管車輛,完成遠端協助。但3G和4G網路的延遲使得“雲代駕”模式無法成為現實,必須透過5G網路來解決延遲問題。很多人認為,當前的5G技術在能耗和覆蓋率等方面還沒有達到預期,但任何新技術的發展都需要時間,相信在未來的三五年後,5G技術能夠為使用者、工業和產業界帶來巨大的變革。

晶片的升級對產業界的作用是顯著的,近年來國內有許多公司在晶片領域有所成就。以百度的崑崙AI晶片為例,第一代崑崙晶片採用14nm先進工藝,2.5D封裝,使用HBM記憶體,可以達到 512GB/s 的頻寬。而預計於2021年量產的第二代崑崙晶片,採用7nm先進工藝,效能是第一代崑崙晶片的3倍,同時耗能減少,具備了大規模片間互聯的能力,進步顯著。

3
最新評論
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 一場事故暴露實情!臺積電、三星赴美建廠恐難成行,早有前車之鑑