首頁>Club>
4
回覆列表
  • 1 # Smiles淡然

    需要先循序漸進地學習幾門基礎知識:

    1、高等數學

    2、線性代數

    3、機率和數理統計

    4、一門計算機語言(Java/C++/Python and the like)

    5、演算法

  • 2 # 你看我獨角獸嗎
    線性代數

    基本要求內容:

    n階行列式

    n維向量組求解

    向量矩陣求解

    正定二次型問題

    階方陣的相似矩陣問題

    線性規劃問題

    機率與統計

    基本要求內容:

    古典機率計算

    條件機率計算

    條件機率分佈與隨機變數的獨立性

    隨機變數的函式的機率分佈

    隨機變數的數字特徵(均值、協方差、相關係數等)

    假設檢驗

    迴歸分析

    微積分

    基本要求內容:

    各種簡單函式(線性函式、三角函式、指數函式等)

    求導(一階導、二階導)

    鏈式法則

    最最佳化方法

    換元積分法

    定積分(逼近定積分、廣義積分)

    GitHub:https://github.com/GraySilver

  • 3 # 科技行者

    數學、統計學與程式設計一起構成了資料科學(data science)的基礎,而資料科學,是人工智慧的基本知識之一,因此,學習這些基礎是極為重要的:

    1、線性代數(Linear Algebra)

    2、隨機變數(Random Variables)

    3、統計分佈(Statistical Distributions)

    4、機率論(Probability theory)。包括:矩量母函式(Moment Generating Function,簡稱MGF),CGF,均值(Mean),中位數(Median),眾數(Mode),最大似然估計方差(Variance Maximum likelihood Expectation),中心極限定理(Central Limit Theorems),方差分析(Analysis of Variance,簡稱ANOVA)

    5、微積分(Calculus)

    6、擬合分析(Fitting of a distribution)

    7、樣本(Sampling)

    8、統計學假設檢驗(Testing of a hypothesis)

    9、貝葉斯建模(Bayesian Modeling)

    10、時間序列分析(Regression and Time Series)

    11、樸素貝葉斯定理(Naive Bayes Theorem)

    12、最佳化(Optimization)

    隨手列基本相關書籍:

    1、https://www.amazon.in/Statistics-Management-Old-Levin-Richard/dp/8177585843

    2、https://www.amazon.in/Think-Stats-Allen-B-Downey/dp/1449307116

    3、https://www.amazon.in/Introduction-Statistical-Learning-Applications-Statistics/dp/1461471370

    4、https://archive.org/details/HowToLieWithStatistics

    以上回答來自暢遊學海的周老師

  • 4 # 歪瓜叔叔

    隨著人工智慧的飛速發展,各個行業對人工智慧技術人員的需求也越來越大。人工智慧將在製造、醫學、建築、食品、交通、機器人等各個領域突破傳統方法而推進新的發展。對於以後打算加入人工智慧行業的人,首先規劃和調整自己的職業目標,增加人工智慧發展所帶來的大量的工作機會。

    人工智慧是計算機學科的一個分支,其實現方式也是計算機程式。但是,區分於傳統的計算機程式,人工智慧程式的實現需要大量和高深的數學知識作為基礎。如果是學生以後打算加入人工智慧,你需要選修所有你能夠可以選修的各類數學課程,例如高等數學,線性代數,機率論和統計學。在對基礎的數學知識有了一定儲備後就要對某些領域進行深入的學習,例如人工神經網路、專家系統、圖論、機器視覺、智慧控制等。

    計算機科學相應課程的學習也是必不可少的,你需要學習如何對所學習的數學知識進行程式設計。這些課程的學習,並不是對知識的簡單記憶,需要學會思考,將資料轉換為知識。必須學會如何將資料轉化為知識。在有了一定的數學知識和人工智慧知識的儲備後,積極參與研究你感興趣的與人工智慧相關的問題討論。開始閱讀關於這個問題的文獻,並嘗試用不同於以前的思路去解決它。將所學習的數學和人工智慧專業知識進行實戰程式設計練習,在不斷的排除bug的過程中學習和完善自己所學的知識。如果你已經就業,但想要轉向從事與人工智慧有關的工作。

    另外,網路上有大量關於人工智慧、深度學習等的資料,包括講座、線上教材、教程和機器學習相關課程。也可以報名 Udacity 或 Coursera 課程,閱讀Yoshua Bengio等人工智慧科技達人的學術論文,閱讀《深度學習》等相關專業書籍。並且在現有工作中,嘗試採用人工智慧程式解決現有問題。

  • 5 # 深藍學院

    人工智慧的浪潮從2012年開始至今,席捲全球,幾乎是家喻戶曉的詞彙。同時,人工智慧也是多學科交叉的領域,涵蓋了專家系統、機器學習、進化計算、模糊邏輯、計算機視覺、自然語言處理、推薦系統等諸多領域。

    目前我們所研究和應用的,是專用人工智慧(或稱為弱人工智慧、感知人工智慧);與專用人工智慧相對的,是通用人工智慧。專用人工智慧階段的智慧體僅在特定領域有效果,比如AlphaGo在圍棋領域戰勝人類,但在象棋等其它棋類遊戲中,用相同的程式就無法實現比較好的效果。而人類這一通用人工智慧的智慧體,不僅可以識人辨物,還會下象棋、打撲克或者麻將,不限於特定領域。

    機器學習:一種實現人工智慧的方法

    當下專用人工智慧的突破,歸功於機器學習。但是,機器學習僅僅是實現人工智慧的一種或者一類方法,並不是全部,這一點希望大家有清晰的認識。

    機器學習從上個世紀50年代發展至今,衍生出了很多熱門的研究子領域,以21世紀為例,先後經歷了流形學習、稀疏學習、深度學習、深度強化學習、遷移學習等數個熱點。甚至直到現在,學術界對於機器學習都沒有完全統一的定義。

    機器學習數學基礎

    總體來看,機器學習涵蓋了微積分、機率論與數理統計、線性代數、矩陣論、資訊理論、最佳化理論等數學基礎。近期,我們聯合南京大學計算機科學與技術系博士生與中科院自動化所博士,共同推出『機器學習數學基礎』線上課程,課程大綱分享給大家,包含了機器學習涉及到的主要數學知識點。

    Chaper1:引言

    數學之於機器學習的必要性和重要性

    Chaper2:函式求導

    1. 背景介紹:以誤差逆傳播(BP)演算法為例

    2. 函式的極限

    3. 偏導數,方向導數,梯度

    4. 複合函式求導的鏈式法則

    5. 案例分析:BP演算法及其應用(以手寫數字識別為例)

    Chaper3:矩陣論

    1. 背景介紹:以線性迴歸為例

    2. 矩陣概念與運算

    3. 矩陣範數

    3.1 範數定義

    3.2 Lp範數

    3.3 最小二乘迴歸誤差度量

    4. 矩陣的行列式、逆、秩和跡

    4.1 求解線性方程組:高斯消去法

    4.2 矩陣的逆

    4.3 線性空間及其基

    4.4 方程組求解的行列式表達

    4.5 矩陣偽逆

    5. 矩陣的特徵值和特徵向量

    5.1矩陣特徵值定義

    5.2 矩陣的跡和行列式與特徵值的關係

    6. 奇異值分解

    6.1 矩陣奇異值的定義

    6.2 矩陣的奇異值分解

    7. 矩陣求導

    7.1矩陣導數的定義

    7.2 矩陣導數對最小二乘的應用

    8. 矩陣二次型與半正定

    8.1 矩陣二次型

    8.2 矩陣半正定的定義

    8.3 最小二乘的半正定視角

    9. 案例分析:線性迴歸及其應用(以前列腺癌發病率預測為例)

    Chaper4:凸最佳化

    1. 背景介紹:以SVM為例

    1.1 最佳化背景介紹

    1.2 SVM應用案例

    2. 最佳化問題與極值

    2.1 最佳化問題及其標準型

    2.2 最佳化問題的極值點

    2.3 拉格朗日函式及KKT條件

    2.4 SVM的最大間隔的數學表達

    3. 凸最佳化基礎

    3.1 凸集與凸問題

    3.2 凸函式與琴生不等式

    3.3 保持凸性的運算

    3.4 SVM的凸性分析

    4. 對偶理論

    4.1 對偶問題

    4.2 強對偶

    4.3 SVM的對偶求解

    5. 案例分析:SVM及其應用(以Iris資料集分類為例)

    Chaper5:機率論與數理統計

    1. 背景介紹:以樸素貝葉斯為例

    2. 隨機變數,機率分佈(離散隨機變數,連續隨機變數)

    3. 聯合機率,邊緣機率,條件機率,貝葉斯定理

    4. 期望、方差/標準差、協方差

    5. 不等式(切比雪夫不等式等)

    6. 獨立性,條件獨立性,相關性

    7. 常用分佈:二項分佈/Bernoulli分佈分佈(特例),多項式分佈/Multinoulli分佈(特例),均勻分佈(離散/連續),高斯分佈,指數分佈

    8. KL散度

    9. 極大似然估計

    10. 案例分析:樸素貝葉斯及其應用(以乳腺癌診斷和信用風險評級為例)

    Chaper6:資訊理論基礎

    1. 背景介紹:以決策樹為例

    2. 資訊理論中的基本概念I:離散隨機變數(熵、聯合熵、條件熵、互資訊、相對熵,以及相互之間的關係)

    3. 資訊理論中的基本概念II:連續隨機變數(微分熵、交叉熵、多元高斯分佈的熵)

    4. 案例分析:決策樹及其應用(以乳腺癌診斷和信用風險評級為例)

    轉行AI的建議

    (1)人工智慧人才的缺口,更多地在於高階人才,而不是調參工。

    這就要求我們在學習機器學習時,不僅要知其然,更要知其所以然,通俗點講,對於每個機器學習演算法,僅僅會呼叫現成的函式庫是不行的,要了解演算法背後的原理,親自推導一遍,親自寫程式碼實現這個演算法,效果最佳。

    (2)等學習完數學知識後,再學習機器學習的做法,未必可取。

    機器學習涉及的數學知識點很多,在實際學習過程中,如果我們一味地學習數學,很容易枯燥厭煩,進而堅持不下來。

    最好的做法是,將數學與機器學習內容高度融合,學習完幾個知識點後,接著學習這些知識點對應的機器學習相關演算法,會讓我們信心倍增。

  • 6 # 四川新華電腦學院

    未來已來,人工智慧勢不可擋。

    人工智慧已應用多個領域,就業面廣,薪資高,當屬炙手可熱的技術!

    學習人工智慧不一定要很深的數學理論知識,在四川新華電腦,人工智慧會學習以下課程:

    一、計算機基礎和C語言。

    二、Photoshop設計流程、HTML基礎以及CSS頁面佈局。

    三、JavaScript語言、Oracle資料庫。

    四、Linux系統、java語句。

    五、Python語法、智慧推薦系統。

    六、大型J2EE專案開發、JavaWeb專案開發、機器人爬蟲系統、智慧推薦系統,

  • 7 # 瀟軒

    需要的數學還是很多的,看你想學到什麼程度了。

    如果你是新手,啥也不懂。那麼我覺得可以先看看華東師範大學出版社與商務印書館出的高中教材《人工智慧基礎(高中版)》。這本書是人工智慧的獨角獸公司商湯科技與華東師範大學一起編的,裡面有很多數學。不過這些數學不是很難理解。比如這裡面寫到了矩陣的卷積。如果你沒有學過矩陣也沒有關係,照葫蘆畫瓢吧。在這個書裡,講到人工智慧影象識別的時候,也用到了RGB矩陣。總得來說,每一張照片都可以看成一個三階張量。一堆照片就是很多三階張量,它們組成了一個影象空間。因此影象空間裡的每一點都對應一張照片。如果你能理解這些數學語言,那麼你就很容易看懂人工智慧的東西——這個對數學系出身的人來說,沒有什麼難度。但對沒有數學系思維鍛鍊的人來說,則需要適應一段時間。

    總的說來,你先看看我說的這本書吧。其他的數學要求就是求導啥的,也不難。

  • 8 # 千鋒頭號粉絲

    首先你需要數學基礎:高等數學,線性代數,機率論數理統計和隨機過程,離散數學,數值分析;

    其次需要演算法的積累:人工神經網路,支援向量機,遺傳演算法等等演算法;

    當然還有各個領域需要的演算法,比如你要讓機器人自己在位置環境導航和建圖就需要研究SLAM;

  • 9 # 千鋒頭號粉絲

    首先你需要數學基礎:高等數學,線性代數,機率論數理統計和隨機過程,離散數學,數值分析;

    其次需要演算法的積累:人工神經網路,支援向量機,遺傳演算法等等演算法;

    當然還有各個領域需要的演算法,比如你要讓機器人自己在位置環境導航和建圖就需要研究SLAM;

    演算法很多需要時間的積累。

  • 10 # 哎呦658

    機器學習(machine learning):是一門多領域交叉學科,涵蓋的範圍也比較廣涉及了機率論、統計學等多門學科。專門研究計算機怎樣模擬或實現人的學習行為,它能夠發現和挖掘資料所包含的潛在價值。機器學習已經成為了人工智慧的一個分支,透過自學習演算法,發現和挖掘資料潛在的規律,從而對未知的資料進行預測。機器學習已經廣泛的運用在了,計算機科學研究、自然語言處理、機器視覺、語音、遊戲等。機器學習的方法主要分為三種,監督學習(supervised learning)、無監督學習(unsupervised learning)、強化學習(reinforcement learning)。應用較多的有監督學習,下面我就簡單的介紹一下這三種演算法。一、監督學習(supervised learning)下面用一個簡單的結構圖來展示一下監督學習的系統構成

    監督學習主要包括兩個大類:分類演算法迴歸演算法。監督學習最突出的特點就是,訓練的資料必須要是有類標的。監督學習可以從帶有類標的訓練資料中,來學習資料中包含的一些特徵,然後透過這些提取資料中的這些特徵來對資料進行預測。1、分類比如說,你想訓練一個系統能夠區分貓和狗,那麼你就需要事先準備好大量的貓和狗的照片,並標記哪張照片是貓哪張照片是狗。然後在透過反向傳播,梯度下降來更新模型引數,最終系統會透過你給的照片來記住貓和狗的特徵,從而來區分貓和狗。為了表示分類的效果,我們用一個二維的座標系來表示,下圖中的直線就表示分割平面,也就是我們系統所需要學習的,從下圖可以看出這條直線能夠很好的區分兩類不同的資料。2、迴歸分類系統所預測的值是一個離散的結果,而回歸系統的預測值是一個連續的數值,可以被應用在房間預測模型、股價等。系統透過大量的訓練資料,來從中尋找自變數(輸入)和因變數(輸出)的關係,它們之間的關係可能是線性也可能是非線性的,系統會學習到輸入與輸出之間的對映的關係(y=f(x)),然後再根據輸入資料來預測輸出。我還記得在高中的物理實驗探討下降高度和時間的關係,其實我們有接觸過這種思想,我們首先透過設定不同的下降高度,然後再記錄小鐵球的下降時間,透過記錄很多的h和t,然後再透過最小二乘法來繪製下降高度(h)和下降時間(t)的曲線,最終可以得到近似於h=1/2*g*t^2(初速度為0)。下面我們還是在二維平面中,來舉一個迴歸的例子從上面的圖可以發現,其實最終我們只需要知道直線的斜率和截距就可以確定這條直線。所以說,透過大量的資料,最後系統學到的就是這兩個引數的值。二、強化學習強化學習是透過構建一個系統(agent),在與環境(environment)互動的過程中提高系統的效能。環境的當前狀態資訊會包括一個反饋訊號,我們可以透過這個反饋訊號對當前的系統進行評價改善系統。透過與環境的互動,agent可以透過強化學習來得到一系列行為,透過對激勵系統的設計使得正向反饋最大。強化學習經常被使用在遊戲領域,比如圍棋比賽,系統會根據當前棋盤上的局態來決定下一步的位置,透過遊戲結束時的勝負來作為激勵訊號。其實可以將強化學習的過程理解為一個訓練狗的過程,比如:你想要訓練這隻狗能夠聽懂你的指定,剛開始的時候狗肯定是不會聽你的話的,當它不聽你的話時候,你就打它一頓(不聽話的懲罰),它聽話的時候你就給他吃的(聽話的獎勵),隨著訓練時間的越來越久,它會越來越聽你的話,這就是整個強化學習系統的工作過程。三、無監督學習無監督學習所處理的是無類標或者資料的總體趨勢不明朗,透過無監督學習我們可以將這些不知道類標和輸出標量以及沒有反饋訊號的情況下,來尋找資料中所潛在的規律。無監督學習可以分為聚類和降維。1、聚類聚類屬於一種探索性的資料分析技術,在沒有任何已知資訊(類標、輸出變數、反饋訊號)的情況下,我們可以將資料劃分為簇。在分析資料的時候,所劃分的每一個簇中的資料都有一定的相似度,而不同簇之間具有較大的區別。2、降維在實際情況中所處理的資料都是高維的(成百上千),那麼這將會導致我們每次所處理的資料量是非常的龐大,而儲存空間通常都是有限的。無監督的降維技術經常被使用在資料特徵的預處理中,透過降維技術我們可以去掉資料中的噪聲,以及不同維度中所存在的相似特徵,最大程度上在保留資料的重要資訊情況下將資料壓縮到一個低維的空間中,但同時也還是會降低演算法的準確性。降維技術通常被應用在資料壓縮和資訊檢索中,透過降維技術來壓縮資料可以節省大量的空間。在資訊檢索中,由於資訊量非常巨大,我們可以透過降維技術來提取資料中最主要的特徵,然後再進行檢索,可以大大提高效率和檢索速度。

  • 11 # bella~

    機器學習的基礎是數學,入門AI必須掌握一些必要的數學基礎,但是並不是全部的數學知識都要學,只學工作上實際有用到的,比如是微積分、機率論、線性代數、凸最佳化等這些。

    你可以看看菜鳥窩的機器學習vip就業課的數學大綱,我覺得寫得很清楚。企業中真正用到的也就這些了。

    微積分

    高等數學中的一些基本概念,如導數,偏導數,梯度下降法,凸函式,拉格朗日數乘法等,都在不同的演算法中現身過。梯度下降法是常見的最佳化演算法,拉格朗日乘法是SVM中解決其最佳化函式的對偶問題的基礎。高等數學是本科中工科,理科的大多數專業都會接觸到的,也是入門機器學習的必備數學工具之一。

    一、微積分1

    1. 極限

    2. 無窮小

    3. 夾逼定理

    4. 微分學的核心思想

    5. 函式的高階導數

    6. 應用:損失函式與支援向量機

    二、微積分2

    1. 初等函式的導數

    2. 多元函式—偏導數

    3. 高階偏導數

    4. 應用:牛頓法 最佳化問題

    三、微積分3

    1. 泰勒級數

    2. 洛必達法則

    3. 求解簡單的微分方程

    4. 區域性極值演算法

    5. 梯度下降法:多變量函式一階逼近

    6. 牛頓法與梯度下降法的比較

    四、微積分4

    1. 黎曼積分

    2. 牛頓萊布尼茨公式

    3. 多變量函式的積分

    4. 應用:學習率與梯度下降

    線性判定邊界

    機率論與數理統計

    機率論,在不少機器學習演算法中都是主角,如樸素貝葉斯演算法(NB),隱馬爾科夫模型(HMM),最大熵模型(EM),條件隨機場(CRF),這四種演算法也是最常見的機率圖模型。無疑,沒有了機率論,這些模型將黯然失色,就像貝葉斯公 式,正是它,才成就了鼎鼎大名的樸素貝葉斯演算法。當然,數理統計也是不可缺少的,簡單到樣本,抽樣方法, 複雜到各種迴歸演算法,方差分析,因子分析等,還有時間序列模型(ARMA演算法)等等,與機率論,都是統計學中的瑰寶,在機器學習也找到了它們的用武之地。

    五、機率論與統計1

    1. 離散隨機變量與連續隨機變量

    2. 如何理解機率

    3. 貝葉斯公式

    4. 應用:貝葉斯分類器

    六、機率論與統計 2

    1. 引數估計

    2. 先驗分佈與後驗分佈

    3. 共軛分佈

    4. 特殊分佈的特殊函式

    七、機率論與統計3

    1. 隨機變量的矩

    2. 切比雪夫不等式

    3. 隨機變量隨機係數

    4. 同一個隨機變量的特徵函式的重要性質

    八、機率論與統計4

    1. 大數定律

    2. 中心極限定理

    3. 引數估計問題

    4. 置信區間

    5. 應用:重要的距離公式

    線性代數

    線性代數是解決線性方法的學問,當然,它的作用不僅如此,個人覺得,它更像是描述線性空間的一種語言。有了線性代數,一方面我們能簡化描述問題與方法的語言,如向量,矩陣等概念;另一方面,它也是解決實際問題的工具,比如,我們在推薦演算法中的SVD,多元線性迴歸的最小二乘法的矩陣描述等。在Python中,它提供了一個很好的線性代數方面的工具,那就是numpy,它的功能與matlab類似,適合矩陣運算,簡單且高效。

    九、線性代數1

    1. 線性空間

    2. 矩陣

    3. 線性矩陣變換

    4. 應用:線性模型遞迴演算法 最小二乘法

    十、線性代數 2

    1. 矩陣的變換

    2. 相似變換

    3. 應用:主成分分析

    SVD在推薦系統中的應用

    正定矩陣與多變量凸函式

    極大似然估計漸進正態性

    免費學習影片可以找助教領取哦

  • 12 # 傅渥成

    下面列舉一下人工智慧研究所需要的最基本的一些數學知識(我們假定讀者至少已經具有了中學的數學基礎):

    (1)基本的數值計算常識(牛頓法,二分法,線性迴歸和最小二乘,誤差控制)。

    (2)基本的微積分,高維函式的微積分(尤其是微分的部分)。

    (3)基本的線性代數:向量和矩陣運算,矩陣求逆,相似矩陣,矩陣的特徵值和特徵向量,行列式等。

    (4)期望,方差,協方差等基本概念。常見的機率分佈,條件機率的鏈式法則,貝葉斯公式,極大似然估計。

    有了上面這些基本的知識,至少就已經可以開始看一些教科書開始試試看了。當然,在學習的過程中,你講會發現以下知識也應該是需要掌握的:

    (a)高維函式的微積分與線性代數的綜合知識,Hessian 矩陣,Jacobian 矩陣,二次型等等。

    (b)奇異值分解,矩陣的範數,一些特殊矩陣的性質等等。

    (c)一些簡單的與最佳化有關的知識。

    (d)熟悉指數族機率分佈函式,對機率分佈函式的更多刻畫:矩,熵,互資訊,KL divergence 等等。

    (e)模型抽象的一些方法,例如 EM 演算法等等。

    最後,還特別強調一點,這裡說了上面這些知識並不是說有了這些知識就已經足夠了,而是說有了這些知識我們就可以直接開始看一些相關的資料,開始學習機器學習有關的一些東西了,我的建議是隻要有了一點點的數學知識就可以直接開始學習,在學習的過程中慢慢繼續打牢基礎,這樣學習的效果也會更好一些。

  • 13 # 觀察者2020

    AI入門需要高數、線性代數、機率和數理統計相關的基礎。逐漸深入的話,就需要了解最最佳化理論、資訊理論和形式邏輯。當然,AI涉及的數學內容很廣,可以根據需要不斷深入學習。

  • 14 # HelloCode少兒程式設計al

    線性代數:如何將研究物件形式化?

    機率論:如何描述統計規律?

    數理統計:如何以小見大?

    最最佳化理論: 如何找到最優解?

    資訊理論:如何定量度量不確定性?

    形式邏輯:如何實現抽象推理?

    這都是學習人工智慧時需要碰到的數學知識。

  • 15 # 華為雲開發者聯盟

    人工智慧和數學領域有著非常密切的聯絡,讓我們來進行論述和探討。

    一、數學與人工智慧

    人工智慧是一個交叉學科,應用的領域也非常廣闊。不同的應用領域所要求的數學背景知識也不盡相同。但是線性代數、機率論、微積分和統計學是人工智慧用於表述的“語言”。學習數學知識將有助於深入理解底層演算法機制,便於開發新演算法。

    線性代數是描述深度學習演算法的基礎也是核心。它透過矩陣表示法來實現深度學習方法,將待處理的非結構化資料都轉換成離散的矩陣或向量形式。比如一張影象可以表示為按順序排列的畫素陣列形式,聲音資料可以表示為向量形式,神經網路就是無數的矩陣運算和非線性變換的結合。大家都知道,機率論與統計學可以用來研究資料分佈與如何處理資料。深度學習演算法所做的絕大多數事情就是預測,預測源於不確定性,而機率論與統計就是討論不確定性的學科。另外,微積分是數學分析的基礎。

    二、AI在數學界的作用

    人工智慧最大的優勢,在於可以幫助人們尋找出人類思維不易發現的聯絡,也就是幫助人類尋找“直覺”。現在的AI,已經可以透過一定的演算法,分析大量資料間存在的關係以及規律,從而幫助發現一些新的猜想。一旦在AI的幫助下找到新的猜想,接下來數學家們就要對這些新猜想,進行深層次地推演和證明。那些被證明為“真”的猜想,最終將會作為定理為人類直接應用。目前,AI已經可以提供一個強大的框架,在有大量資料或難以利用經典方法研究的數學領域中,發現了不少有趣且可以獲得論證的猜想。

    數學在人工智慧領域中發揮著重要的作用。如神經網路中的所有引數都被儲存在矩陣中;線性代數使矩陣運算變得更加快捷簡便,尤其是在GPU上訓練模型時,因為GPU可以並行地以向量和矩陣運算。影象在計算中被表示為按序排列的畫素陣列。影片遊戲使用龐大的矩陣來產生令人炫目的遊戲體驗。在機器翻譯中,如何檢測你輸入的語言種類會用到機率論的相關知識。一種簡單的方法就是把你輸入的詞或句子進行分解,計算各語言模型的機率,然後機率最高的是最後確定的語言模型。另外,用神經網路進行影象分類,網路的輸出是衡量分類結果可信程度的機率值,即分類的置信度,我們選擇置信度最高的作為影象分類結果。而混合高斯模型、隱馬爾科夫模型等傳統語音處理模型都是以機率論為基礎的。

    三、AI未來對數學界產生的顛覆性影響

    就像計算機對於數學的發展造成了一系列影響,不同程度的“人工智慧”在當下已經與數學有所交融,在未來也可能以各種方式起到顛覆性的作用。如能夠將簡單重複的計算工作交給計算機,使得“數值解”成為“解析解”的一大補充,也使一部分解析表示式 (例如級數)在理論分析之外有了更多的應用。

    由於強大算力的介入,以迭代、大規模計算等等為基礎的演算法不再僅存在於理論之中,而是在最佳化、求解等方面有了更大的實用價值。這從思維方式上改變了數學的研究,不僅提供了更多的工具來解決問題,也豐富了計算數學等領域的研究內容。

    一方面,人工智慧為我們提供了便利。另一方面,人工智慧也可以透過資料來學習和了解人類。人工智慧浪潮催生了一批以人工智慧演算法為驅動的網際網路公司。我們身處一個鉅變的時代,毋庸置疑,人工智慧已經成為科技前沿之一,將給許多行業帶來顛覆性的影響。基於資料的人工智慧和基於模型的數學方法,兩者有機結合,既能推動人工智慧的進步,也促進了數學研究的創新。隨著“人工智慧”的能力提升和應用推廣,其他領域的數學研究也會獲得一定的幫助,甚至在新工具的幫助下取得前所未有的成果。例如一些將討論情況數目限制到小範圍或者積累成果已經足夠豐富的猜想,其證明可以透過機器來打通最後一步。

    綜上所述,AI在數學界有著舉足輕重的地位,很多人工智慧應用都需要數學的相關知識來支撐。同時,AI也會在未來會對數學界產生深遠和顛覆性的影響。

  • 中秋節和大豐收的關聯?
  • 如果在自駕遊時路邊有美女招手搭車,你會怎麼做?