回覆列表
  • 1 # 大哥帶你飛高高

    首先了解一下什麼是人工智慧,我們才能來談它的現在和未來。

    人工智慧是計算機科學的分支學科,同時涉及哲學和認知科學,數學,神經生理學,心理學,計算機科學,資訊理論,控制論,不定性論等學科。

    目前在生活中的應用,掃地醫療陪伴機器人以及智慧停車,語音傳輸,能做到基本的能聽會說,能做簡單的邏輯思維。

    未來人工智慧將在仿生物領域有長足的發展,在適應環境方面也會有大的發展,人工智慧未來也將會應用到城市管理中,做到智慧化城市,為人類提供智慧化服務。最終作為人類程式化工作如臂指使的替代者

  • 2 # 農村2658

    1.2018年人工智慧發展已經到了各行各業了,比如說家庭智慧裝置,智慧門,智慧電視,智慧電飯鍋,智慧空調等等,用手機APP控制一切智慧裝置,還可以用智慧音響語音控制一切裝置。

    2.2019年人工智慧發展,會給我們帶來更好體驗和使用,人工智慧與其他行業智慧裝置連結,形成一個強大的智慧網路。

    希望上面的回答可以幫上你。

  • 3 # 科技行者

    以下是谷歌大腦聯合創始人、現Landing.AI公司CEO吳恩達、Cloudera機器學習總經理兼Fast Forward實驗室創始人Hilary Mason、Facebook AI Research部門創始人Yann LeCun以及埃森哲公司負責任人工智慧全球負責人Rumman Chowdhury博士,對於2018年人工智慧領域的觀察,以及對2019年發展趨勢給出的論斷與見解。

    總結來說,一方面人們開始越來越意識到AI能做什麼以及無法做到什麼,另一方面,越來越多的人意識到在推進技術發展的同時仍要堅守住負責任的道德規範。

    吳恩達:2019年AI的發展重點是場景應用

    吳恩達是斯坦福大學的兼職計算機科學教授,他的名字在人工智慧圈子中幾乎無人不知。首先,他是谷歌大腦的聯合創始人,在2017年離開了谷歌團隊之後還出任了百度的首席人工智慧科學家。隨後,他又創立了Landing AI公司,主要業務是幫助企業客戶將人工智慧整合至自身運營體系當中。

    在採訪中,他表示自己在2019年比較關注的目標是人工智慧能夠在技術或者軟體企業之外,被引入到更多應用場景中。他強調,人工智慧技術最大的潛力絕不僅限於軟體行業。

    “我認為新的一年(2019年)大部分重要事件都將出現在各種應用場景當中。除了谷歌、百度、Facebook以及微軟等科技巨頭之外,包括Square、Airbnb以及Pinterest等在內的企業,也紛紛開始利用人工智慧技術創新業務。我認為,AI的下一波價值創造點將更集中在製造或農業裝置企業,甚至是醫療保健公司。”吳恩達表示,“雖然目前人工智慧的實際應用還存在著嚴重阻礙,但在我看來其中一部分問題在某些特定層面已經取得了重大進展。”

    著眼於新的一年,吳恩達期待看到人工智慧和機器學習兩大特定研究領域的進展能夠給整個人工智慧產業帶來推動。

    一方面,透過利用較少資料就能確保AI得出準確的結論(這稱為“少樣本學習(few shot learning)”)。吳恩達表示:“第一波深度學習的發展動力主要源自大型企業,他們擁有大量可用於神經網路模型訓練的資料。但這已經屬於傳統方法,如今越來越多人正在嘗試利用較少資料達成比較理想的效果。我非常期待看到僅僅1000張影象就能建立起相對準確的影象識別能力。”

    另一方面,是計算機視覺領域的進一步發展。以醫療影像為例,雖然目前計算機視覺系統已經具備比人類放射科醫師更為強大的影象識別能力,但其缺點就是靈活性較差。吳恩達解釋說:“比如對於低端X光機拍攝的較為模糊的影象,或者由於操作人員錯誤指導致影象角度不正等情況,人類醫師要比演算法模型更具經驗和適應性。因此,我認為還需要進一步研究以提高演算法在更多場景中的泛化能力。”

    Hilary Mason:容器化部署對多套AI系統管理具有重要意義

    在Cloudera於2017年收購Fast Forward Labs之後,Hilary Mason出任了Cloudera的機器學習總經理。如今,Fast Forward Labs保持獨立運營,主要負責提供機器學習技術應用報告,併為客戶提供未來六個月到兩年之間的技術發展建議。

    回顧2018年,最令Mason感到驚訝的人工智慧技術突破主要是「多工學習」。如今,研究人員可以訓練單一神經網路,使其在觀察影象中的物體的同時應用多種標籤。

    但同時,Mason還指出,有必要為人工智慧方案建立某種道德約束框架。Mason表示:“在新的一年當中,那些不關注這個問題的企業以及個人,都將面臨濫用人工智慧所帶來的實際後果或者責任追究。我希望倫理道德問題在資料科學與人工智慧的實踐發展當中,能夠成為一種預設考量條件,技術人員與商業領袖在建立AI產品時也應當充分考慮到道德以及偏見問題的影響。”

    此外,隨著越來越多AI系統成為企業業務運營體系中的重要組成部分,Mason預計,作為這波浪潮的中堅力量,產品經理與產品負責人將在人工智慧領域做出更多貢獻。她進一步表示:“我希望這個群體能夠像使用電子表格那樣簡單輕鬆地實現AI建模,我們也希望他們至少掌握一定程度的能力,從而在自己的產品當中發現可以利用人工智慧技術加以改善的部分。”

    如今,人工智慧民主化的理念已經得到相當一部分企業的重視與認可。包括Kubeflow Pipelines、AI Hub等谷歌雲AI產品以及CI&T智慧裝置在內的眾多實際產品,都在努力推動AI系統在企業內部的廣泛普及。

    Mason同時認為,未來將有越來越多的企業需要建立對應的組織架構,從而實現對多套人工智慧系統的管理。

    以在DevOps變革當中大家所面臨的挑戰為例,以往對單一系統的管理往往可以透過手動部署的自定義指令碼實現;但要想管理幾十套系統,就必須引入cron作業。而如果面對的是成百上千套系統,要實現嚴格的安全性、治理能力與風險管控,就需要更專業且更為強大的工具。

    Mason強調了以容器形式部署AI的重要意義。她相信這種趨勢將在未來幾年內持續升溫,進而幫助更多企業立足雲端或者本地環境部署更多AI解決方案。

    最後,Mason還總結稱,人工智慧業務將繼續保持發展,並且相關實踐將在整個行業內得到普及——而非由個別公司嚴格把控。“目前,當一位資料科學家或者機器學習工程師跳槽到另一家公司,其工作內容有可能完全不同,比如會使用不同的工具、滿足不同的需求、適應不同的報告結構等等。但我認為在新的一年中,這種差異將逐步轉化為一致性標準。”她解釋說。

    Yann LeCun:AI系統要逐漸學會建立起因果關係認知

    Yann LeCun現任紐約大學教授、Facebook公司AI科學家,以及Facebook AI Research(簡稱FAIR)部門的創始董事。該部門曾先後建立了PyTorch 1.0與Caffe2,以及其它一系列AI系統——包括Facebook使用者每天使用數十億次的文字翻譯AI工具,以及懂得如何下圍棋的先進強化學習系統等。

    其中,LeCun認為,FAIR之所以能夠取得這樣的成績,應當歸功於對機器學習及其底層技術與數學奧秘的深入應用,同時還有賴於其中的開源策略。他解釋稱,“當有更多人願意將自己的研究內容和技術向外輸出時,整個領域才能得到更快的發展。大家如今在人工智慧領域看到的進步速度,在很大程度上正是源於有更多的人以遠超以往的速度與效率進行更為開放的研究工作。”

    在道德問題方面,LeCun表示很高興地看到人工智慧社群在考量自身工作的道德倫理影響,以及對偏見決策危險性的認知方面取得的進展。他指出:“事實上,目前業界已經就此達成共識,認為這些問題確實值得高度關注。”“雖然目前這類問題還不屬於需要緊急解決的核心挑戰,但這是遲早的事,我們需要在其實際發生之前做好預防工作。”

    與吳恩達一樣,LeCun希望更多AI系統能夠在靈活性層面更上一層樓,即在無需大量原始輸入資料或者準確輸出條件的前提下建立起強大的AI系統。他指出,要構建出能夠透過觀察真實環境進行學習的教學機器,行業需要採用自我監督學習或者基於模型的強化學習技術。

    “目前,我們已經在這一領域取得了進展,比如開始透過弱監督或者自我監督學習實現語言翻譯與影象識別,這些也開始在Facebook的服務當中發揮作用。”

    著眼於未來,LeCun希望人工智慧系統能夠逐漸學會在不同事件之間建立起因果關係認知。這不僅僅需要透過觀察進行學習,同時也要建立真正的理解能力——例如如果人們使用雨傘,則可能代表著外面正在下雨。

    他表示:“這一點將非常重要,因為如果大家希望一臺機器能夠透過觀察世界來學習並改進自身模型,那麼它必須有能力瞭解其能夠以及無法改變環境中的哪些條件。舉個例子,如果您在一個房間之內,面前擺著一張桌子,上面放著一個像是水瓶的物體,那麼大家肯定會意識到自己可以推動水瓶,因為它相對較輕;而我們很難移動桌子,因為其又大又重——這樣的判斷就與因果關係有著緊密的關聯。”

    Rumman Chowdhury:更多行業與技術監管標準將出臺

    Rumman Chowdhury博士目前擔任埃森哲公司應用智慧部門的常務董事,主要負責任人工智慧專案。

    Chowdhury表示,在過去的一年中,與人工智慧威脅相關的問題得到更為科學的討論——而不僅僅侷限於《終結者》電影中由智慧機器接管全球的極端場景。她指出:“認知水平的提高使得隱私與安全意識成為新的關注重點,另外人們也開始思考人工智慧在塑造我們自身以及後代方面可能發揮的作用。”但同時,她還強調自己希望看到整個AI社群更進一步,從道德口號轉向實際行動。

    在這方面,她提出了一系列值得關注的問題,比如:如何在AI與物聯網支援型監控體系當中找到「正確的」平衡點,從而在獲得安全收益的同時抵制一切懲罰性監控,或者可能加重現有種族歧視問題的執行方式;如何設計先進技術收益的再分配機制,從而確保不會進一步增加本來就已經非常嚴重的富貧差距;如何設計兒童對人工智慧的接觸水平,從而引導他們「熟悉AI」但又不致被AI洗腦或者同化;如何利用人工智慧實現教育的擴充套件與自動化,同時繼續確保人類的創造力與獨立思考能力等等。

    在新的一年當中,Chowdhury預計全球範圍內將圍繞人工智慧技術出臺更多政府審查與技術監管要求。

    她指出:“在2019年,我們必須努力為已經存在的問題找到答案——當技術成為一種具有特定背景的多功能工具時,我們該如何規範這些技術?我們要如何制定合理的監管措施,從而在制約大型企業(即有能力承擔合規成本的組織)的同時不致扼殺初創企業的創新空間?我們應該立足怎樣的層級進行監管?是國際、國內還是特定區域?”

    她指出:“我希望監管機構、技術專家以及研究人員們能夠意識到,我們的人工智慧競賽不僅僅關注計算能力與技術敏感性。我們同時也有責任以更公正、更公平、更平等的方式重建世界,這是擺在我們面前的絕佳機遇。”

    在消費級層面,她認為2019年人工智慧方案將出現在更多家庭環境當中。比如,很多人已經習慣了使用Google Home以及Amazon Echo等智慧揚聲器,外加其它各類智慧裝置。在這方面,她總結稱:“我猜大家跟我一樣,都很期待機器人管家的實現。”

  • 中秋節和大豐收的關聯?
  • 古代春節燃放煙花爆竹可以殺菌消毒,有沒有科學依據?