回覆列表
  • 1 # 使用者9155849839598

    1. 符號派

    自1955年 人工智慧(Artificial Intelligence) 被正式提出以來,符號派就存在了,如上所述,都是基於規則的系統,絲毫沒有“學習”的能力。

    這個門派的主打演算法是反向推論(Inverse Reduction):透過已經收集的資料來建立一些規則,然後用規則來推斷將來要發生的事情。然而這個理論有個非常明顯的缺陷,你知道在哪裡嗎?

    2. 連線派

    這種演算法的問題是人腦非常複雜,想要完整模擬出人腦演算法還有非常長的路要走,需要依賴於基礎學科的突破。

    連結派的主打演算法是神經網路,其中的分支深度學習(Deep Learning)如今在圖片和影片領域發展非常迅速,應用很廣泛。有很多框架可以支援神經網路分析,包括 Pytorch,TensorFlow、Caffe 和 百度 Paddle 等。這些框架的工作原理都類似:透過迭代分析大量樣例資料來使用分層的方式發掘資料中的特點,把結果從一層傳遞到下一層做下一步分析。每一層能從資料中解析出更復雜、抽象的特點。

    神經網路的問題之一是需要大量標註好的資料來訓練演算法,有一些場景下這是不可能做到的。其中用到的反向傳播技術,被詬病的是找到的是“好”的方案而不是“最佳”方案,因為它找到的是區域性而非全域性最優解。

    3. 進化派

    一定程度上說進化是一個比人腦更大的學習演算法,因為:

    它創造了人腦

    它創造了地球上其他生物形態

    所以值得探究它到底是如何工作的,然後在計算機上實現它。

    進化派希望在計算機領域模擬出進化過程:讓自然選擇,適者生存,猶如達爾文觀察到的那樣。其過程是一次(一代)執行數以百萬個不同的解決方案/演算法,其中結果最好的方法保留到下一代。下一代裡透過把上一代演算法結合到一起來建立一個新的演算法。這種每一代都有變化的方式會讓我們一步步逼近解決問題的理想演算法。

    進化派的主打演算法是基因程式設計 (Genetic Programming)。這種演算法的缺點是一個演算法產生後,只能等待下一代時才能產出一個更好的演算法。

    4. 貝葉斯派

    其實人類學習到的知識並不是一成不變的,它是不確定的在動態變化的。當我們從資料中推理出一些東西,是無法完全確定就是這樣的。所以學習的方法變成透過使用機率來量化不確定性,當你看到了更多的證據,那不同假設的機率就在隨之調整,證據越多的機率越高。其中方法之一就是大名鼎鼎的貝葉斯理論。

    好處是不需要大量的資料集,而且研究院也更容易理解和解釋訓練結果和機器決策過程,甚至可以調整結果。一些使用貝葉斯技術的試驗在識別物體方面也有好的結果。

    5. 類比派

    這個學派主要源於心理學,使用的是最簡單,最直觀的方式:透過類比來推理。心理學中有大量證據表明人類就是這樣做的:當你面對一個新問題,你會從已有的經驗中找到與之類似的情況,然後把解決方法拿過來解決現有問題。

    主打演算法是核心機器 (Kernel Machines),比如支援向量機(Support Vector Machine)是其中演算法之一,它是一種 Kernel 技巧,能把本來非線性的分隔問題對映到線性平面。

  • 中秋節和大豐收的關聯?
  • 美的空氣能故障程式碼f1?