今天,咱們聊聊手機和AI。
先說一個最新的段子。
華為今年的Mate 30 Pro有一個最新的功能。可以用AI自動檢測有幾個人在盯著你的手機。
如果只有你自己在看,那通知就會顯示全文。如果同時還有別人在看,那通知就會摺疊隱藏。
於是,最恐怖的一幕就是:深夜,你一個人在家,Mate 30 Pro把通知隱藏了。
其實,今年的各大廠新旗艦手機,AI絕對還是亮點。
谷歌Pixel 4的GoogleAssistant支援多工處理,和朋友聊天的時候,你可以隨時問問看自己的航班情況。
最厲害的,就是全新加入的手勢雷達 + 人臉識別功能了。不僅可以隔空取物,也達到了史上最快手機解鎖體驗。
而各種上熱搜的iPhone 11 Pro的浴霸三攝,則實現了業界最流暢的多攝像頭順滑切換體驗。
這些新體驗背後,都有著AI的加持。
手機的AI是不是偽需求?
8年前,iPhone 4s推出最新功能Siri,語音識別正式“實用化”開始,人們開始相信AI的用處。
手機上的AI,需要專門的硬體麼?
2年前,華為推出麒麟970晶片,內部搭載NPU單元,助力AI計算。也使得當年的Mate 10成為全球第一款搭載NPU的智慧終端。
今天,移動端+ 晶片硬體,已經是各大廠的標配。同時,為了更多釋放AI能力,都開放了各類介面和工具給到了開發者。
iPhone11 Pro的最新A13自研晶片,內部搭載8核神經引擎,助力Face ID等功能。
開發者方面,iOS則升級套件到CoreML 3,方便打造各類AI應用。
安卓方面,驍龍660平臺開始,就已經引入AI計算引擎,去年底的855正式硬體加入Tensor Core計算單元。
開發者方面,更是推出Neural Processing (NP) SDK,以及和安卓深度耦合的Android Neural Network API。
華為除了硬體,還搭建了面向智慧終端的AI能力開放平臺HiAI。
而今年7月,百度飛槳(PaddlePaddle)深度學習平臺與華為麒麟晶片正式宣佈聯手。
中國首個全面開源開放、技術領先、功能完備的產業級深度學習平臺,和全球領先的最強“中國產芯”華為麒麟系列聯手,正式打通深度學習框架與晶片,為AI時代打造最強算力。
本週,在剛剛結束的“WAVE SUMMIT+”2019深度學習開發者秋季峰會上,剛剛入選“2019世界網際網路大會領先科技成果”的飛槳全新發布了9大新產品和12項升級。
重點的是,最新的移動端側推理引擎Paddle Lite 2.0,不僅支援ARM CPU 、 Mali GPU 、 Adreno GPU,還成為了第一個,支援華為 NPU 線上編譯的深度學習推理框架。
兩大“國貨之光”也給出了最新成績。
PaddleLite與HiAI Foundation聯合優化後,相比驍龍855,麒麟990上推理速度FP32提升4.3倍-6.4倍,INT8提升2.3倍-3.7倍。
看到這,可能很多小夥伴還有疑問:這麼強的AI算力,在手機上,真的有用嗎?
當然,下面我就舉出幾個常見的手機應用案例。
AI的核心能力,是可以讀懂文字,看懂圖片。
AI可以瞬間理解這些內容。最簡單的應用,可以分類你的訊息,去除垃圾簡訊和郵件;高階點的,就可以幫你自動補全郵件內容;再高階點,可以分辨你的情緒、情感,還有多種語言翻譯。
飛槳本次釋出的ERNIE 2.0,就是一個針對“語義理解”的端到端的開發套件,有著工業化的計算能力,延遲小於1ms,可以讓開發者快速使用。
影象應用方面就更多了。你使用的P圖軟體,視訊濾鏡,都有AI的相關能力。這些都需要影象分割技術。
而PaddleSeg的開發套件,提供18個預訓練模型,可以幫助開發者快速實現相關功能。
有時候,你看到明星的衣服很好看,想用圖片搜尋找找同款,這個時候就要用到目標檢測技術了。還有,你家裡如果使用了智慧攝像頭,可以快速捕捉移動物體,安全防盜,也要利用這個技術。
對應的,PaddleDetection含有60+ 預訓練模型,還有競賽冠軍模型,也在本次全新發布。其中,還包含了很多實用的小模型,方便給移動裝置使用。
同樣類似的,很多App都有超級多選單,超多功能,怎樣找到最合適的給你優先顯示呢?這裡也需要CTR模型。
而飛槳本次,則新增了ElasticCTR,可實現分散式CPU訓練,可以為開發者快速解決上面的CTR應用問題。
有很多人覺得,5G時代已經來臨,再過幾年就將全面普及。到時候,我們還需要在移動端的AI能力麼?NPU是不是就沒有用了呢?
其實,NPU + 框架,就是未來移動裝置AI能力演化的“公式”,5G時代也不會落後。
首先,網路再快,傳輸大量資料和資訊也會損失能量,損失能量就是損失金錢。
如果移動端裝置可以本地快速預先處理資料,只將少量的、處理後的資料返回雲端,不僅減少了雲端的計算壓力,也會讓使用者體驗更快更好。
此外,5G最重要的應用場景就是IoT物聯網。以後,接入網路的可不一定就是手機,小到水杯,大到工業機床都可能入網,實現萬物互聯。
到時候,這些移動裝置可不見得有手機那樣的強大能力,記憶體和網路能力可能都趕不上。那麼,我們能不能把模型壓縮到足夠小,讓這些裝置方便使用,就是一個技術難點。
PaddleSlim則提供了強大的模型壓縮能力,通過剪枝、量化、蒸餾,和全新的LightNAS,可以實現模型的精度無失真壓縮。
另外,最重要的,移動端裝置上的AI,可以保證資料保留在本地,實現強大的資料安全。
比如,你的人臉識別解鎖的資料,指紋的資料,還有其他更敏感的,比如身體的健康資料,都將本地安全留存。
以上,在裝置上執行的AI,稱之為OnDevice AI。這個能力,也將會是以後移動端AI發展的方向之一。
此外,華為HiAI和飛槳還將在哪些能力上下功夫?
今年穀歌和華為都加入隔空操作後,我看到了一個趨勢。手機,以後會有更多的各類感測器。以後的訓練資料,將不僅僅是文字、影象和聲音,這些感測器的資料也將派上大用。
這就是為什麼,「多模融合」是我最期待的方向之一。也就是說,把多模型的資訊,統一到一個特徵空間當中,之後進行融合訓練,這會讓感知以及識別更精準。
重要的是,降低開發難度,絕對是一個趨勢。
這幾年的AI框架迭代,很重要的一方面,就是讓開發體驗越來越好,應用門檻越來越低。而現在的飛槳已經可以只用5行程式碼,快速配置GPU進行並行訓練了。
在硬體上,NPU也好,神經引擎也好,都在底層上努力,讓AI應用發揮更大價值。
在軟體上,各類框架瘋狂提升模型能力,降低部屬難度,提高開發效率。
更重要的是,軟體和硬體要互相協調,深度耦合,最終將實現以最低成本達成超高使用者體驗的目標,贏得全球市場。
這樣的軟硬結合的移動端發展之路,一定是各大廠今後的角逐舞臺。