首頁>Club>
47
回覆列表
  • 1 # 海門老馮

    對機器而言,學習可分為兩種獲得資訊的方式。一是自主式學習;二是人工灌輸式學習。能做到自主學習,說明類腦智慧研究已經取得突破性成就了,事實上這還很遙遠。要實現完全的機器自主學習,必須向人體、特別是大腦學習,才能完全模仿出人的一整套思維功能運動機能機制。因為人是自然界透過優選法,並以最科學的進化演變造就的。例如,進化出的大腦是用最少的“材料”、最短的神經衝動迴路、最簡潔的器官配置、最科學的對資訊的存取功能以及對資訊的輸入輸出……等等。至於灌輸式學習方式,它是目前所製造出來的機器,所共同擁有的機能現狀。所以,還沒有真正意義上的機器學習,由於機器對資訊存取機制的先天不足,實際上,目前的所謂智慧機器卻還是繞不過程式化和預設定。因此,嚴格點講,還不存在機器學習的情況,更沒有優缺點之解讀。由於本人時間有限和相關知識淺缺,難以讓你如原以償。謝謝邀請!

  • 2 # 西線學院

      K近鄰:演算法採用測量不同特徵值之間的距離的方法進行分類。

      優點:

      1.簡單好用,容易理解,精度高,理論成熟,既可以用來做分類也可以用來做迴歸;

      2.可用於數值型資料和離散型資料;

      3.訓練時間複雜度為O(n);無資料輸入假定;

      4.對異常值不敏感

      缺點:

      1.計算複雜性高;空間複雜性高;

      2.樣本不平衡問題(即有些類別的樣本數量很多,而其它樣本的數量很少);

      3.一般數值很大的時候不用這個,計算量太大。但是單個樣本又不能太少 否則容易發生誤分。

      4.最大的缺點是無法給出資料的內在含義。

      樸素貝葉斯

      優點:

      1.生成式模型,透過計算機率來進行分類,可以用來處理多分類問題,

      2.對小規模的資料表現很好,適合多分類任務,適合增量式訓練,演算法也比較簡單。

      缺點:

      1.對輸入資料的表達形式很敏感,

      2.由於樸素貝葉斯的“樸素”特點,所以會帶來一些準確率上的損失。

      3.需要計算先驗機率,分類決策存在錯誤率。

      決策樹

      優點:

      1.概念簡單,計算複雜度不高,可解釋性強,輸出結果易於理解;

      2.資料的準備工作簡單, 能夠同時處理資料型和常規型屬性,其他的技術往往要求資料屬性的單一。

      3.對中間值得確實不敏感,比較適合處理有缺失屬性值的樣本,能夠處理不相關的特徵;

      4.應用範圍廣,可以對很多屬性的資料集構造決策樹,可擴充套件性強。決策樹可以用於不熟悉的資料集合,並從中提取出一些列規則 這一點強於KNN。

      缺點:

      1.容易出現過擬合;

      2.對於那些各類別樣本數量不一致的資料,在決策樹當中,資訊增益的結果偏向於那些具有更多數值的特徵。

      3. 資訊缺失時處理起來比較困難。 忽略資料集中屬性之間的相關性。

      Svm

      優點:

      1.可用於線性/非線性分類,也可以用於迴歸,泛化錯誤率低,計算開銷不大,結果容易解釋;

      2.可以解決小樣本情況下的機器學習問題,可以解決高維問題 可以避免神經網路結構選擇和區域性極小點問題。

      3.SVM是最好的現成的分類器,現成是指不加修改可直接使用。並且能夠得到較低的錯誤率,SVM可以對訓練集之外的資料點做很好的分類決策。

      缺點:對引數調節和和函式的選擇敏感,原始分類器不加修改僅適用於處理二分類問題。

      Logistic迴歸:根據現有資料對分類邊界線建立迴歸公式,依次進行分類。

      優點:實現簡單,易於理解和實現;計算代價不高,速度很快,儲存資源低;

      缺點:容易欠擬合,分類精度可能不高

      EM 期望最大化演算法-上帝演算法

      只要有一些訓練資料,再定義一個最大化函式,採用EM演算法,利用計算機經過若干次迭代,就可以得到所需的模型。EM演算法是自收斂的分類演算法,既不需要事先設定類別也不需要資料見的兩兩比較合併等操作。缺點是當所要最佳化的函式不是凸函式時,EM演算法容易給出區域性最佳解,而不是最優解。

  • 3 # 你看我獨角獸嗎

    優點:

    自動化。一般來說只要訓練好一個模型和及時更新,就可以在一類問題上不斷使用,且在某些問題上效果要比人好得多,例如大規模的影象識別和語言識別等。

    高效率。 如果用傳統演算法去評估一個棋局的優劣,可能計算量超大,還不一定準確。用訓練好的神經網路去評估,就是一眨眼的功夫。這就是為什麼AlphaGo能夠這麼強,它節省了大量的計算,使得本來不可行的事情變為可行。

    可塑性。 如果用傳統演算法去解決一個問題,調整模型的代價可能是把程式碼重新寫一遍,這使得改進的成本巨大。深度學習只需要調整引數,就能改變模型。這使得它具有很強的靈活性和成長性。一個程式可以持續改進,然後達到最理想的狀態。

    普適性。 機器學習模型是透過學習來解決問題,可以根據問題自動建立模型,所以能夠適用於各種問題,而不僅僅侷限於某個固定的問題。

    缺點:

    訓練成本較高。需要大量的訓練和資料輸入才能達到滿意的程度,而很多問題找不到足夠的資料,需要花費大量的金錢和時間去抓取原始資料。

    無法直接學習知識。知識是由從資料提煉出來的。如果把人類的知識直接教給它,比如把愛因斯坦的相對論教給它,這種模式到現在還沒有更好地解決方案,不過有些進展的方向是遷移學習,有興趣可以瞭解下。

    機器學習不善於解決某些特定問題。複雜的數學運算用神經網路來進行恐怕不是最佳方案,需要結合其他演算法和實際的環境才能夠正確發揮模型本身的效果。

    無法對直覺性的知識和判斷進行量化和延展。像人可以從腳踏車聯想到帶有腳踏車圖案的白雲,但機器學習模型目前尚未達到這點。

  • 4 # 52sissi

      許多人將機器學習視為通向人工智慧的途徑,但是對於統計學家或商人而言,機器學習也可以是一種強大的工具,可以實現前所未有的預測結果。

      為什麼機器學習如此重要?

      在開始學習之前,我們想花一些時間強調WHY機器學習非常重要。

      總之,每個人都知道人工智慧或人工智慧。通常,當我們聽到AI時,我們會想象機器人到處走動,執行與人類相同的任務。但是,我們必須瞭解,雖然有些任務很容易,但有些任務卻很困難,並且距離擁有像人類一樣的機器人還有很長的路要走。

      但是,機器學習是非常真實的並且已經存在。它可以被視為AI的一部分,因為當我們想到AI時,我們想象的大部分內容都是基於機器學習的。

      在過去,我們相信未來的這些機器人將需要向我們學習一切。但是人腦是複雜的,並且並非可以輕鬆描述其協調的所有動作和活動。1959年,亞瑟·塞繆爾(Arthur Samuel)提出了一個絕妙的主意,即我們不需要教計算機,但我們應該讓他們自己學習。塞繆爾(Samuel)也創造了“機器學習”一詞,從那時起,當我們談論機器學習過程時,我們指的是計算機自主學習的能力。

      機器學習有哪些應用?

      在準備這篇文章的內容時,我寫下了沒有進一步說明的示例,假定所有人都熟悉它們。然後我想:人們知道這些是機器學習的例子嗎?

      讓我們考慮一些。

      自然語言處理,例如翻譯。如果您認為百度翻譯是一本非常好的字典,請再考慮一下。百度翻譯本質上是一組機器學習演算法。百度不需要更新百度 Translate;它會根據不同單詞的使用情況自動更新。

      哦,哇 還有什麼?

      雖然仍然是主題,但Siri,Alexa,Cortana都是語音識別和合成的例項。有些技術可以使這些助手識別或發音以前從未聽過的單詞。他們現在能做的事令人難以置信,但在不久的將來,它們將給人留下深刻的印象!

      SPAM過濾。令人印象深刻,但值得注意的是,SPAM不再遵循一組規則。它自己瞭解了什麼是垃圾郵件,什麼不是垃圾郵件。

      推薦系統。Netflix,淘寶,Facebook。推薦給您的所有內容都取決於您的搜尋活動,喜歡,以前的行為等等。一個人不可能像這些網站一樣提出適合您的推薦。最重要的是,他們跨平臺,跨裝置和跨應用程式執行此操作。儘管有些人認為它是侵入性的,但通常情況下,資料不是由人處理的。通常,它是如此複雜,以至於人類無法掌握它。但是,機器將賣方與買方配對,將電影與潛在觀眾配對,將照片與希望觀看的人配對。這極大地改善了我們的生活。

      說到這,淘寶擁有如此出色的機器學習演算法,它們可以高度確定地預測您將購買什麼以及何時購買。那麼,他們如何處理這些資訊?他們將產品運送到最近的倉庫,因此您可以在當天訂購併收到產品。難以置信!

      金融機器學習

      我們名單上的下一個是金融交易。交易涉及隨機行為,不斷變化的資料以及從政治到司法的各種因素,這些因素與傳統金融相距甚遠。儘管金融家無法預測很多這種行為,但是機器學習演算法會照顧到這種情況,並且對市場的變化做出響應的速度比人們想象的要快。

      這些都是業務實現,但還有更多。您可以預測員工是否會留在公司或離開公司,或者可以確定客戶是否值得您光顧-他們可能會從競爭對手那裡購買還是根本不購買。您可以最佳化流程,預測銷售,發現隱藏的機會。機器學習為機會開闢了一個全新的世界,對於在公司戰略部門工作的人們來說,這是一個夢想成真。

      無論如何,這些已在這裡使用。然後,我們將進入自動駕駛汽車的新境界。

      機器學習演算法

      直到最近幾年,無人駕駛汽車還是科幻小說。好吧,不再了。自動駕駛汽車已經驅動了數百萬英里(即使不是數十億英里)。那是怎麼發生的?沒有一套規則。而是一組機器學習演算法,使汽車學習瞭如何極其安全有效地駕駛。

      我們可以繼續學習幾個小時,但我相信您的主旨是:“為什麼要使用機器學習”。

      因此,對您來說,這不是為什麼的問題,而是如何的問題。

      這就是我們的Python機器學習課程所要解決的問題。蓬勃發展的資料科學事業中最重要的技能之一-如何建立機器學習演算法!

      如何建立機器學習演算法?

      假設我們已經提供了輸入資料,建立機器學習演算法最終意味著建立一個輸出正確資訊的模型。

      現在,將此模型視為黑匣子。我們提供輸入,並提供輸出。例如,考慮到過去幾天的氣象資訊,我們可能想建立一個預測明天天氣的模型。我們將輸入模型的輸入可以是度量,例如溫度,溼度和降水。我們將獲得的輸出將是明天的天氣預報。

      現在,在對模型的輸出感到滿意和自信之前,我們必須訓練模型。訓練是機器學習中的核心概念,因為這是模型學習如何理解輸入資料的過程。訓練完模型後,我們可以簡單地將其輸入資料並獲得輸出。

      如何訓練機器學習演算法?

      訓練演算法背後的基本邏輯涉及四個要素:

      a.資料

      b.模型

      c.目標函式

      d.最佳化演算法

      讓我們探索每個。

      首先,我們必須準備一定數量的資料進行訓練。

      通常,這是歷史資料,很容易獲得。

      其次,我們需要一個模型。

      我們可以訓練的最簡單模型是線性模型。在天氣預報示例中,這將意味著找到一些係數,將每個變數與它們相乘,然後將所有結果求和以得到輸出。但是,正如我們稍後將看到的那樣,線性模型只是冰山一角。依靠線性模型,深度機器學習使我們可以建立複雜的非線性模型。它們通常比簡單的線性關係更好地擬合數據。

      第三個要素是目標函式。

      到目前為止,我們獲取了資料,並將其輸入到模型中,並獲得了輸出。當然,我們希望此輸出儘可能接近實際情況。大資料分析機器學習AI入門指南https://www.aaa-cg.com.cn/data/2273.html這就是目標函數出現的地方。它估計平均而言,模型輸出的正確性。整個機器學習框架歸結為最佳化此功能。例如,如果我們的函式正在測量模型的預測誤差,則我們希望將該誤差最小化,或者換句話說,將目標函式最小化。

      我們最後的要素是最佳化演算法。它由機制組成,透過這些機制我們可以更改模型的引數以最佳化目標函式。例如,如果我們的天氣預報模型為:

      明天的天氣等於:W1乘以溫度,W2乘以溼度,最佳化演算法可能會經過以下值:

      W1和W2是將更改的引數。對於每組引數,我們將計算目標函式。然後,我們將選擇具有最高預測能力的模型。我們怎麼知道哪一個最好?好吧,那將是具有最佳目標函式的那個,不是嗎?好的。大!

      您是否注意到我們說了四個成分,而不是說了四個步驟?這是有意的,因為機器學習過程是迭代的。我們將資料輸入模型,並透過目標函式比較準確性。然後,我們更改模型的引數並重復操作。當我們達到無法再最佳化或不需要最佳化的程度時,我們將停止,因為我們已經找到了解決問題的足夠好的解決方案。

    https://www.toutiao.com/i6821026294461891086/

  • 中秋節和大豐收的關聯?
  • 元宵節你們那裡還放孔明燈嗎?