對亞馬遜的DeepLens的介紹以及對AI的一點思索
雖然對提問的內容不是很理解,但還是嘗試回答一下,說不定就說中了呢?對於一款產品,我們通常的理解可以分為三層:1.是什麼?2.為什麼?3.怎麼用?
針對第一個問題,首先我們先來了解一下DeepLens是什麼?根據亞馬遜的官方解釋,DeepLens是一款與AWS雲服務整合的支援無線傳輸的影片攝像頭和開發平臺。它允許使用者使用最新的人工智慧(AI)工具和技術來開發基於深度學習模型的計算機視覺應用程式。
如果你是一位機器學習(Machine Learning)的初學者,你能夠利用DeepLens現成的基於深度學習示例專案實踐教程來深化學習。亞馬遜提供的每個樣本專案都至少包含一個預先訓練的模型和一個教學上直接使用的推演功能。
而如果是一位經驗豐富的從業者,你可以利用DeepLens開發平臺來訓練卷積神經網路(CNN)模型,並將包含該模型的計算機視覺應用專案部署到AWS DeepLens裝置中。你可以在任何系統支援的深度學習框架中訓練模型,包括
· Caff(一種常用的卷積神經網路框架,主要應用在影片、影象處理方面的應用上);
· MXNet(一種亞馬遜提供和推薦的高效能、靈活的深度學習庫)
· TensorFlow(一種由谷歌提供的開源機器學習框架,同時也是GitHub上排名第一的神經網路演算法庫)。
DeepLens的硬體配置
AWS DeepLens通常搭載以下硬體配置:
AWS DeepLens相機採用Intel®Atom處理器,每秒可處理1000億次浮點運算(GFLOPS)。這可以為使用者提供在裝置上執行推演所需的計算能力。微型HDMI顯示埠,音訊輸出和USB埠允許使用者連線外圍裝置,可以利用其他計算機視覺應用程式獲得額外創意發揮。
AWS DeepLens軟體的基本工作流程
第二個問題,為什麼要創造AWS DeepLens,以及分析亞馬遜更為深層次的商業探索目的。
很顯然,AWS DeepLens是一個開創性的產品,它讓智慧實驗室裡僅供計算機科學家研究的稀缺物品,變成了尋常工程師能夠接觸和探索人工智慧的實驗物件。對於IoT,Edge和AI愛好者而言,它的吸引力無疑是難以拒絕的。 DeepLens將成為一個極具想象空間的成人遊樂場,用於測試一些新興技術,如物聯網,邊緣計算,機器學習和無伺服器計算等前沿領域場景。
對於亞馬遜推出這款產品的深層原因,我們試分析如下:
1. AWS(亞馬遜)與Google在深度學習領域的分庭抗禮
隨著2017年2月16日,Google正式對外發布Google TensorFlow 1.0正式版本,並保證本次的釋出版本API介面完全滿足生產環境穩定性要求。AI端的競爭開始從實驗室走向大眾市場,TensorFlow成為普通開發人員在機器學習方面嘗試涉足的首批專案之一。
隨著TensorFlow的不斷擴張,它不僅僅作為一個框架提供API供使用者呼叫,也同時在圍繞著演算法服務推出各種配套的服務內容。而這,顯然開始侵蝕到了亞馬遜雲服務(AWS)的領域範圍,雖然AWS也有自家官方支援的MXNet,但是相對於谷歌正規軍推出的TensorFlow,由零散團體做出來的MXNet還是稍顯稚嫩。
因此,亞馬遜亟需要劃分一個新的賽道出來,突破當前的劣勢地位。
2. 深度學習的核心競爭不僅僅在於演算法,還應有資料
對於深度學習(Deep Learning),人工智慧的頂級權威吳恩達(Andrew Ng)認為:
更加通用的描述是:深度學習演算法的特點在於提供用於訓練的資料量越大,演算法的效能越高,而且是一個隨資料量動態變化的過程。
由此,也不難理解,亞馬遜推出AWS DeepLens的更廣泛的目的,在於透過商業化產品的推廣和AWS雲的連線,將更多有效的資料將收集起來,助推自身發展。
3. 物聯網和雲的未然佈局
邊緣計算、霧計算、雲計算,這些都需要有及其龐大的資料進行支撐,而在不遠的未來構成物聯網的數十億裝置將是不可忽視的資源。同時,對於這麼多裝置,物聯網服務將存在無法集中化的問題。它不會圍繞伺服器進行擴充套件以滿足需求,而是在邊緣變得更加智慧 - 至少做一部分必要的分析。這就是為什麼AWS DeepLens的概念如此引人注目的原因。他一方面為終端產品面臨獨立而智慧化的問題提供瞭解決方案,而同時又推動深度學習在終端的適應性方面進行了探索和驗證。
關鍵的例子在於,對於自動駕駛的車輛而言,一輛隨時需要連線雲端的汽車是不可接受的,無論從實際操作層面還是心理層面都不會被使用者接受。因此如何有效保證在離線狀態下,自動駕駛車輛既擁有強大的計算能力,同時又不會消耗大量的資源(比如電力和CPU計算資源),將成為一個重要的研究方向。
至於第三個問題,怎麼用?在這裡,我們不會去探討AWS DeepLens具體怎麼除錯,讓這些複雜的技術問題就交給GitHub上面的Geek們去傷腦筋吧。我們來聊一下“未來”:
谷歌在2018年穀歌I/O的演講中,主要有3個主題:
作為人工智慧領域毫無爭議的王者,我們將從谷歌最新的演講中推斷未來人工智慧的發展方向:
特徵增強
智慧助理
虛擬現實
無人駕駛
展望未來,機器將越來越多地成為人類器官的特徵延伸,幫助人類監控和預測原來無法知道的內容,修補殘缺人體原本的缺陷。比如利用醫療AI進行視網膜篩查心臟病和糖尿病,透過分析醫療保健中的人類視網膜影象來診斷疾病以及預測未來24小時內患者再入院的可能性等。而同樣透過AI的加持,能夠讓殘障人士使用摩斯碼裝置進行交流從而獲得更好的生活。
智慧助理層面,AI將更加貼近人類的實際生活,包括主動推測意圖,更智慧地解決問題,以及更自然和聰明的語音助理,至少現在不用再傻傻的先喊一聲“Hey Google!”(我希望蘋果能早日實現這個功能:)。而更加魔幻的場景是,谷歌CEO皮查伊表示,Google助手可以幫助預約理髮和訂座,而對接的服務人員甚至不知道對方僅僅是一個語音助理。
“在網際網路上,沒人知道你是一條狗”,看來網際網路上這句最著名的戲言即將變成現實...
虛擬現實,透過Google地圖和相機的連線,手機中的地圖內容將與現實場景結合起來,AR應用將能夠嵌入引導圖示,從而提供更加豐富的圖文資訊以及智慧地指引。
最後,作為谷歌公司的兄弟公司Waymo,CEO John Krafcik透露,其無人駕駛的錯誤已減少100多倍而預判則得到了大幅提升。
很顯然,隨著AI的深層次介入,裝置設施的智慧化已不可避免,AI的加速發展勢必會改變我們當前生活的方方面面。我想,AI不應該成為科學家們的獨角戲,極客們的孤獨狂歡,對普羅大眾而言,參與進來,瞭解它,學習它,適應它,或許是未來人生的必修課。
對亞馬遜的DeepLens的介紹以及對AI的一點思索
雖然對提問的內容不是很理解,但還是嘗試回答一下,說不定就說中了呢?對於一款產品,我們通常的理解可以分為三層:1.是什麼?2.為什麼?3.怎麼用?
針對第一個問題,首先我們先來了解一下DeepLens是什麼?根據亞馬遜的官方解釋,DeepLens是一款與AWS雲服務整合的支援無線傳輸的影片攝像頭和開發平臺。它允許使用者使用最新的人工智慧(AI)工具和技術來開發基於深度學習模型的計算機視覺應用程式。
如果你是一位機器學習(Machine Learning)的初學者,你能夠利用DeepLens現成的基於深度學習示例專案實踐教程來深化學習。亞馬遜提供的每個樣本專案都至少包含一個預先訓練的模型和一個教學上直接使用的推演功能。
而如果是一位經驗豐富的從業者,你可以利用DeepLens開發平臺來訓練卷積神經網路(CNN)模型,並將包含該模型的計算機視覺應用專案部署到AWS DeepLens裝置中。你可以在任何系統支援的深度學習框架中訓練模型,包括
· Caff(一種常用的卷積神經網路框架,主要應用在影片、影象處理方面的應用上);
· MXNet(一種亞馬遜提供和推薦的高效能、靈活的深度學習庫)
· TensorFlow(一種由谷歌提供的開源機器學習框架,同時也是GitHub上排名第一的神經網路演算法庫)。
DeepLens的硬體配置
AWS DeepLens通常搭載以下硬體配置:
支援MJPEG格式(Motion JPEG)並具備400萬畫素的攝像頭8 GB的板載記憶體16 GB的儲存容量32 GB SD卡支援2.4 GHz和5 GHz標準雙頻網路的Wi-Fi微型HDMI顯示埠一個音訊輸出和兩個USB埠功耗:20 W電源輸入:5V和4AAWS DeepLens相機採用Intel®Atom處理器,每秒可處理1000億次浮點運算(GFLOPS)。這可以為使用者提供在裝置上執行推演所需的計算能力。微型HDMI顯示埠,音訊輸出和USB埠允許使用者連線外圍裝置,可以利用其他計算機視覺應用程式獲得額外創意發揮。
AWS DeepLens軟體的基本工作流程
裝置開啟後,AWS DeepLens會開始捕捉影片內容。 並由此生成兩個輸出流:(A) 裝置流 - 未經處理即傳遞的影片流。(B) 專案流 - 模型處理影片幀的結果 Inference Lambda函式接收未處理的影片幀。 Inference Lambda函式將未處理的幀傳遞給專案的深度學習模型,並在其中進行處理。 Inference Lambda函式從模型接收已處理的幀,並在專案中傳遞出已處理的幀。
第二個問題,為什麼要創造AWS DeepLens,以及分析亞馬遜更為深層次的商業探索目的。
很顯然,AWS DeepLens是一個開創性的產品,它讓智慧實驗室裡僅供計算機科學家研究的稀缺物品,變成了尋常工程師能夠接觸和探索人工智慧的實驗物件。對於IoT,Edge和AI愛好者而言,它的吸引力無疑是難以拒絕的。 DeepLens將成為一個極具想象空間的成人遊樂場,用於測試一些新興技術,如物聯網,邊緣計算,機器學習和無伺服器計算等前沿領域場景。
對於亞馬遜推出這款產品的深層原因,我們試分析如下:
1. AWS(亞馬遜)與Google在深度學習領域的分庭抗禮
隨著2017年2月16日,Google正式對外發布Google TensorFlow 1.0正式版本,並保證本次的釋出版本API介面完全滿足生產環境穩定性要求。AI端的競爭開始從實驗室走向大眾市場,TensorFlow成為普通開發人員在機器學習方面嘗試涉足的首批專案之一。
隨著TensorFlow的不斷擴張,它不僅僅作為一個框架提供API供使用者呼叫,也同時在圍繞著演算法服務推出各種配套的服務內容。而這,顯然開始侵蝕到了亞馬遜雲服務(AWS)的領域範圍,雖然AWS也有自家官方支援的MXNet,但是相對於谷歌正規軍推出的TensorFlow,由零散團體做出來的MXNet還是稍顯稚嫩。
因此,亞馬遜亟需要劃分一個新的賽道出來,突破當前的劣勢地位。
2. 深度學習的核心競爭不僅僅在於演算法,還應有資料
對於深度學習(Deep Learning),人工智慧的頂級權威吳恩達(Andrew Ng)認為:
深度學習的核心是,我們需要有足夠快的計算機以及足夠多的資料來對大型神經網路進行實際的訓練。 -- 2013年演講《 深度學習,自主學習和無監督特徵學習 》我們現在已經開始擁有非常強大的神經網路,但還需要有權訪問的大量資料。 --2015在ExtractConf 《 What data scientists should know about deep learning 》更加通用的描述是:深度學習演算法的特點在於提供用於訓練的資料量越大,演算法的效能越高,而且是一個隨資料量動態變化的過程。
由此,也不難理解,亞馬遜推出AWS DeepLens的更廣泛的目的,在於透過商業化產品的推廣和AWS雲的連線,將更多有效的資料將收集起來,助推自身發展。
3. 物聯網和雲的未然佈局
邊緣計算、霧計算、雲計算,這些都需要有及其龐大的資料進行支撐,而在不遠的未來構成物聯網的數十億裝置將是不可忽視的資源。同時,對於這麼多裝置,物聯網服務將存在無法集中化的問題。它不會圍繞伺服器進行擴充套件以滿足需求,而是在邊緣變得更加智慧 - 至少做一部分必要的分析。這就是為什麼AWS DeepLens的概念如此引人注目的原因。他一方面為終端產品面臨獨立而智慧化的問題提供瞭解決方案,而同時又推動深度學習在終端的適應性方面進行了探索和驗證。
關鍵的例子在於,對於自動駕駛的車輛而言,一輛隨時需要連線雲端的汽車是不可接受的,無論從實際操作層面還是心理層面都不會被使用者接受。因此如何有效保證在離線狀態下,自動駕駛車輛既擁有強大的計算能力,同時又不會消耗大量的資源(比如電力和CPU計算資源),將成為一個重要的研究方向。
至於第三個問題,怎麼用?在這裡,我們不會去探討AWS DeepLens具體怎麼除錯,讓這些複雜的技術問題就交給GitHub上面的Geek們去傷腦筋吧。我們來聊一下“未來”:
谷歌在2018年穀歌I/O的演講中,主要有3個主題:
AI - 人工智慧Wellbeing - 福利 [劃掉]Fake News - 假新聞 [劃掉]作為人工智慧領域毫無爭議的王者,我們將從谷歌最新的演講中推斷未來人工智慧的發展方向:
特徵增強
智慧助理
虛擬現實
無人駕駛
展望未來,機器將越來越多地成為人類器官的特徵延伸,幫助人類監控和預測原來無法知道的內容,修補殘缺人體原本的缺陷。比如利用醫療AI進行視網膜篩查心臟病和糖尿病,透過分析醫療保健中的人類視網膜影象來診斷疾病以及預測未來24小時內患者再入院的可能性等。而同樣透過AI的加持,能夠讓殘障人士使用摩斯碼裝置進行交流從而獲得更好的生活。
智慧助理層面,AI將更加貼近人類的實際生活,包括主動推測意圖,更智慧地解決問題,以及更自然和聰明的語音助理,至少現在不用再傻傻的先喊一聲“Hey Google!”(我希望蘋果能早日實現這個功能:)。而更加魔幻的場景是,谷歌CEO皮查伊表示,Google助手可以幫助預約理髮和訂座,而對接的服務人員甚至不知道對方僅僅是一個語音助理。
“在網際網路上,沒人知道你是一條狗”,看來網際網路上這句最著名的戲言即將變成現實...
虛擬現實,透過Google地圖和相機的連線,手機中的地圖內容將與現實場景結合起來,AR應用將能夠嵌入引導圖示,從而提供更加豐富的圖文資訊以及智慧地指引。
最後,作為谷歌公司的兄弟公司Waymo,CEO John Krafcik透露,其無人駕駛的錯誤已減少100多倍而預判則得到了大幅提升。
很顯然,隨著AI的深層次介入,裝置設施的智慧化已不可避免,AI的加速發展勢必會改變我們當前生活的方方面面。我想,AI不應該成為科學家們的獨角戲,極客們的孤獨狂歡,對普羅大眾而言,參與進來,瞭解它,學習它,適應它,或許是未來人生的必修課。