-
1 # 神州風土物產
-
2 # 機器之心Pro
機率
我們已經擁有十分強大的數學工具了,為什麼我們還需要學習機率論?我們用微積分來處理變化無限小的函式,並計算它們的變化。我們使用代數來解方程,我們還有其他幾十個數學領域來幫助我們解決幾乎任何一種可以想到的難題。
難點在於我們都生活在一個混亂的世界中,多數情況下無法準確地測量事物。當我們研究真實世界的過程時,我們想了解許多影響實驗結果的隨機事件。不確定性無處不在,我們必須馴服它以滿足我們的需要。只有如此,機率論和統計學才會發揮作用。
如今,這些學科處於人工智慧,粒子物理學,社會科學,生物資訊學以及日常生活中的中心。
如果我們要談論統計學,最好先確定什麼是機率。其實,這個問題沒有絕對的答案。我們接下來將闡述機率論的各種觀點。
頻率
想象一下,我們有一枚硬幣,想驗證投擲後正反面朝上頻率是否相同。我們如何解決這一問題?我們試著進行一些實驗,如果硬幣正面向上記錄 1,如果反面向上記錄 0。重複投擲 1000 次並記錄 0 和 1 的次數。在我們進行了一些繁瑣的時間實驗後,我們得到了這些結果:600 個正面(1)和 400 反面(0)。如果我們計算過去正面和反面的頻率,我們將分別得到 60%和 40%。這些頻率可以被解釋為硬幣出現正面或者反面的機率。這被稱為頻率化的頻率。
條件機率
通常,我們想知道某些事件發生時其它事件也發生的機率。我們將事件 B 發生且事件 A 也發生的條件機率寫為 P(A | B)。以下雨為例:
打雷時下雨的機率有多大?
晴天下雨的機率有多大?
從這個尤拉圖,我們可以看到 P(Rain | Thunder)= 1 :當我們看到雷聲時,總會下雨(當然,這不完全正確,但是我們在這個例子中保證它成立)。
P(Rain | Sunny)是多少呢?直覺上這個機率很小,但是我們怎樣才能在數學上做出這個準確的計算呢?條件機率定義為:
換句話說,我們用 Rain 且 Sunny 的機率除以 Sunny 的機率。
相依事件與獨立事件
如果一個事件的機率不以任何方式影響另一個事件,則該事件被稱為獨立事件。以擲骰子且連續兩次擲得 2 的機率為例。這些事件是獨立的。我們可以這樣表述
但是為什麼這個公式可行?首先,我們將第一次投擲和第二次投擲的事件重新命名為 A 和 B,以消除語義影響,然後將我們看到的兩次投擲的的聯合機率明確地重寫為兩次投擲的單獨機率乘積:
現在用 P(A)乘以 P(B)(沒有變化,可以取消)並重新回顧條件機率的定義:
如果我們從右到左閱讀上式,我們會發現 P(A | B) = P(A)。這就意味著事件 A 獨立於事件 B!P(B)也是一樣,獨立事件就解釋到這裡。
貝葉斯機率論
貝葉斯可以作為一種理解機率的替代方法。頻率統計方法假設存在我們正在尋找的模型引數的一個最佳的具體組合。另一方面,貝葉斯以機率方式處理引數,並將其視為隨機變數。在貝葉斯統計中,每個引數都有自己的機率分佈,它告訴我們給已有資料的引數有多種可能。數學上可以寫成
這一切都從一個允許我們基於先驗知識來計算條件機率的簡單的定理開始:
儘管貝葉斯定理很簡單,但它具有巨大的價值,廣泛的應用領域,甚至是貝葉斯統計學的特殊分支。有一個關於貝葉斯定理的非常棒的部落格文章,如果你對貝葉斯的推導感興趣---這並不難。
分佈
什麼是機率分佈?這是一個定律,它以數學函式的形式告訴我們在一些實驗中不同可能結果的機率。對於每個函式,分佈可能有一些引數來調整其行為。
當我們計算硬幣投擲事件的相對頻率時,我們實際上計算了一個所謂經驗機率分佈。事實證明,世界上許多不確定的過程可以用機率分佈來表述。例如,我們的硬幣結果是一個伯努利分佈,如果我們想計算一個 n 次試驗後硬幣正面向上的機率,我們可以使用二項式分佈。
引入一個類似於機率環境中的變數的概念會方便很多—隨機變數。每個隨機變數都具有一定的分佈。隨機變數預設用大寫字母表示,我們可以使用 ~ 符號指定一個分佈賦給一個變數。
上式表示隨機變數 X 服從成功率(正面向上)為 0.6 的伯努利分佈。
連續和離散機率分佈
機率分佈可分為兩種:離散分佈用於處理具有有限值的隨機變數,如投擲硬幣和伯努利分佈的情形。離散分佈是由所謂的機率質量函式(PMF)定義的,連續分佈用於處理連續的(理論上)有無限數量的值的隨機變數。想想用聲音感測器測量的速度和加速度。連續分佈是由機率密度函式(PDF)定義的。
這兩種分佈型別在數學處理上有所不同:通常連續分佈使用積分∫而離散分佈使用求和Σ。以期望值為例:
抽樣與統計
假設我們正在研究人類的身高分佈,並渴望發表一篇令人興奮的科學論文。我們測量了街上一些陌生人的身高,因此我們的測量資料是獨立的。我們從真實人群中隨機選擇資料子集的過程稱為抽樣。統計是用來總結采樣值資料規律的函式。你可能見過的統計量是樣本均值:
另一個例子是樣本方差:
這個公式可以得出所有資料點偏離平均值的程度。
如果我想學習更多呢?
你想去深入的機率論與數理統計?很好! 你一定會受益於這方面的知識,無論你是想理解機器學習背後的理論亦或只是好奇心作祟。
入門級:可汗學院是一個很好的免費資源。課程將以非常直觀和簡單的形式讓您瞭解基礎知識
中級:Larry Wasserman 的所有統計資料都是一個精彩簡潔的資源,將為您介紹統計中幾乎所有重要的課題。請注意,本書假定你熟悉線性代數和微積分
高階水平:我敢打賭,到這一步你會定製你的個人閱讀清單
-
3 # 小AI諮詢
作者曾經寫過系列文章《想要學人工智慧,你必須得先懂點統計學》有需要的童鞋可以到作者主頁按需學習。
《想要學人工智慧,你必須得先懂點統計學》共14篇文章,主要向大家介紹了在學習人工智慧和機器學習之前有必要掌握的一些基礎統計理論,這些統計理論將有助於後續理解相關的機器學習演算法和對資料探勘結果的解釋。在此給出每一篇文章的簡介,大家可以根據自己的需要到作者主頁有選擇性地學習和查閱,統計理論功底不紮實的同學建議把這一系列的文章都看一看,希望對後續大家進一步的學習有所幫助。
CONTENT
第一篇:《想要學人工智慧,你必須得先懂點統計學(1)統計學導論和資料收集》介紹了統計學的概念,描述統計方法和推斷統計方法,統計工作的過程,統計資料的型別,常用的統計調查方式和資料收集方法。
第二篇:《想要學人工智慧,你必須得先懂點統計學(2)資料的描述與概括性度量》介紹了資料描述的圖形方法、表格方法以及數值方法,分佈形狀與眾數、中位數和均值的關係,離散係數或者變異係數。
第三篇:《想要學人工智慧,你必須得先懂點統計學(3)機率與機率分佈》介紹了條件機率、全機率公式以及貝葉斯公式,常見的離散型機率分佈和連續型隨機變數的機率分佈。
第四篇:《想要學人工智慧,你必須得先懂點統計學(4)方差分析概述》介紹了方差分析的基本概念,方差分析的基本思想和原理。
第五篇:《想要學人工智慧,你必須得先懂點統計學(5)單因素方差分析》介紹了方差分析中的基本假定,單因素方差分析的資料結構,總變差(離差平方和)的分解,組間方差和組內方差,檢驗的統計量 F 計算。
第六篇:《想要學人工智慧,你必須得先懂點統計學(6)統計學中的顯著性水平、統計量和P值之間什麼關係?》介紹了顯著性水平,統計量大小以及P值大小這三者之間的關係,如何根據P值怎麼判斷顯著性,查表又怎麼判斷顯著性。
第七篇:《想要學人工智慧,你必須得先懂點統計學(7)雙因素方差分析》介紹了雙因素方差分析的資料結構,無互動作用的雙因素方差分析模型和有互動作用的雙因素方差分析模型。
第八篇:《想要學人工智慧,你必須得先懂點統計學(8)相關分析概述》介紹了變數間的函式和相關關係,相關關係的型別和相關關係的描述。
第九篇:《想要學人工智慧,你必須得先懂點統計學(9)相關分析及顯著性檢驗》介紹了相關分析要解決的問題,總體相關係數以及樣本相關係數,相關係數的取值及意義和相關係數的顯著性檢驗。
第十篇:《想要學人工智慧,你必須得先懂點統計學(10)迴歸分析概述》介紹了迴歸分析的內容,迴歸分析與相關分析的區別和聯絡,迴歸模型的型別。
第十一篇:《想要學人工智慧,你必須得先懂點統計學(11)一元線性迴歸》介紹了一元線性迴歸的概念,一元線性迴歸模型的表示,一元線性迴歸模型的基本假設以及迴歸方程的估計。
第十二篇:《想要學人工智慧,你必須得先懂點統計學(12)迴歸方程的顯著性檢驗》介紹了離差平方和的分解,三個平方和的關係和意義,樣本決定係數(判定係數 r2),迴歸方程的顯著性檢驗(線性關係的檢驗)。
第十三篇:《想要學人工智慧,你必須得先懂點統計學(13)迴歸係數的顯著性檢驗》介紹了迴歸係數b1的顯著性檢驗,迴歸係數顯著性檢驗的步驟—t檢驗。
第十四篇:《想要學人工智慧,你必須得先懂點統計學(14)利用迴歸模型進行預測》介紹了利用迴歸方程進行估計和預測,包括點估計和區間估計,影響區間寬度的因素,置信區間、預測區間和迴歸方程之間的關係。
回覆列表
你好!機器學習屬於人工智慧(AI)的領域,其涉及機率論、統計學、演算法等諸多交叉學科。類似訓練電腦模擬人的思維過程並進行訓練、推理、決策等等。我僅僅是聽過而已,沒有深入瞭解過。你可以諮詢大學的計算機或軟體專業的業內人士。
抱歉!