首頁>Club>
你可都瞭然於心了?
9
回覆列表
  • 1 # 科技寶寶

    首先你要知道這些專業的機器學習詞彙,163個專業詞彙帶你入門機器學習

    機器學習目前在主流網際網路公司使用的非常普遍,對於一些想從事或者轉型到這個行業的產品經理和開發者,來看看有哪些常見的機器學習詞彙,以下是總結了163個詞彙,讓你與機器學習技術大牛友好的聊天,A-W分字母檢視。

    A

    準確率(Accuracy)

    啟用函式(Activation function)

    梯度下降演算法(AdaGrad)

    曲線下面積(AUC)

    B

    反向傳播(Backpropagation)

    基線(Baseline)

    批次(Batch)

    批次大小(Batch size)

    偏置(Bias)

    二元分類器(Binary classification)

    根據值的範圍將一個連續特徵轉換成多個(binning/bucketing)

    C

    標定層(calibration layer)

    候選取樣(candidate sampling)

    檢查點(checkpoint)

    類別(class)

    類別不平衡資料集(class-imbalanced data set)

    分類模型(classification)

    分類閾值(classification threshold)

    混淆矩陣(confusion matrix)

    連續特徵(continuous feature)

    收斂(convergence)

    凸函式(concex function)

    成本(cost)

    交叉熵(cross-entropy)

    D

    資料集(data set)

    決策邊界(decision boundary)

    深度模型(deep model)

    密集特徵(dense feature)

    派生特徵(derived feature)

    離散特徵(discrete feature)

    正則化(dropout regularization)

    動態模型(dynamic model)

    E

    早期停止法(early stopping)

    嵌入(embeddings)

    經驗風險最小化(empirical risk minimization,ERM)

    整合(ensemble)

    評估器(Estimator)

    樣本(example)

    F

    假負類(false negative,FN)

    假正類(false positive,FP)

    假正類率(false positive rate,FP rate)

    特徵(feature)

    特徵列(feature columns/FeatureColumn)

    特徵交叉(feature cross)

    特徵工程(feature engineering)

    特徵集(feature set)

    特徵定義(feature spec)

    G

    泛化(generalization)

    廣義線性模型(generalized linear model)

    梯度(gradient)

    梯度截斷(gradient clipping)

    梯度下降(gradient descent)

    圖(graph)

    H

    啟發式(heuristic)

    隱藏層(hidden layer)

    摺頁損失函式(Hinge loss)

    測試資料(holdout data)

    超引數(hyperparameter)

    I

    獨立同分布(independently and identically distributed,i.i.d)

    推斷(inference)

    輸入層(input layer)

    評分者間一致性(inter-rater agreement)

    K

    Kernel 支援向量機(Kernel Support Vector Machines/KSVM)

    L

    L1 損失函式(L1 loss)

    L1 正則化(L1 regularization)

    L2 損失(L2 loss)

    L2 正則化(L2 regularization)

    標籤(label)

    標註樣本(labeled example)

    正則化率的同義詞(lambda)

    層(layer)

    學習率(learning rate)

    最小二乘迴歸(least squares regression)

    線性迴歸(linear regression)

    logistic 迴歸(logistic regression)

    對數損失函式(Log Loss)

    M

    機器學習(machine learning)

    均方誤差(Mean Squared Error/MSE)

    小批次(mini-batch)

    小批次隨機梯度下降(mini-batch stochastic gradient descent)

    模型(model)

    模型訓練(model training)

    動量(Momentum)

    多類別(multi-class)

    N

    NaN trap(NaN 是「Not a Number」的縮寫)

    負類(negative class)

    神經網路(neural network)

    神經元(neuron)

    歸一化(normalization)

    Python中提供高效陣列運算的開源數學庫(numpy)

    O

    目標(objective)

    離線推斷(offline inference)

    one-hot 編碼(one-hot encoding)

    一對多(one-vs.-all)

    線上推斷(online inference)

    運算(Operation/op)

    最佳化器(optimizer)

    異常值(outlier)

    輸出層(output layer)

    過擬合(overfitting)

    P

    一種基於列的資料分析 API(Pandas)

    引數(parameter)

    引數伺服器(Parameter Server/PS)

    引數更新(parameter update)

    偏導數(partial derivative)

    分割槽策略(partitioning strategy)

    效能(performance)

    困惑度(perplexity)

    流程(pipeline)

    正類(positive class)

    精度(precision)

    預測(prediction)

    預測偏差(prediction bias)

    預製評估器(pre-made Estimator)

    預訓練模型(pre-trained model)

    先驗信念(prior belief)

    Q

    佇列(queue)

    R

    秩(rank)

    評分者(rater)

    召回率(recall)

    修正線性單元(Rectified Linear Unit/ReLU)

    迴歸模型(regression model)

    正則化(regularization)

    正則化率(regularization rate)

    受試者工作特徵曲線(receiver operating characteristic/ROC Curve)

    根目錄(root directory)

    均方根誤差(Root Mean Squared Error/RMSE)

    S

    負責儲存模型檢查點檔案(Saver)

    縮放(scaling)

    序列模型(sequence model)

    會話(session)

    Sigmoid函式(sigmoid function)

    為多類別分類模型中每個可能的類提供機率的函式(softmax)

    稀疏特徵(sparse feature)

    平方損失(squared loss)

    靜態模型(static model)

    穩態(stationarity)

    步(step)

    步長(step size)

    隨機梯度下降(stochastic gradient descent/SGD)

    結構風險最小化(structural risk minimization/SRM)

    摘要(summary)

    監督式機器學習(supervised machine learning)

    合成特徵(synthetic feature)

    T

    張量(tensor)

    張量處理單元(Tensor Processing Unit,TPU)

    張量形狀(Tensor shape)

    張量大小(Tensor size)

    大型分散式機器學習平臺(TensorFlow)

    一個可以看到不同超引數對模型訓練的影響的平臺(TensorFlow Playground)

    幫助訓練模型使之可部署到產品中的平臺(TensorFlow Serving)

    測試集(test set)

    用於描述機器學習模型訓練或推斷的輸入資料(tf.Example)

    訓練(training)

    訓練集(training set)

    真負類(true negative,TN)

    真正類(true positive,TP)

    真正類率(true positive rate,TP rate)

    U

    無標籤樣本(unlabeled example)

    無監督機器學習(unsupervised machine learning)

    V

    驗證集(validation set)

    W

    權重(weight)

    寬模型(wide model)

    訂閱「基數智慧」,jishu2017ai,一起加入人工智慧技術大本營。

  • 2 # 52sissi

      許多人將機器學習視為通向人工智慧的途徑,但是對於統計學家或商人而言,機器學習也可以是一種強大的工具,可以實現前所未有的預測結果。

      為什麼機器學習如此重要?

      在開始學習之前,我們想花一些時間強調WHY機器學習非常重要。

      總之,每個人都知道人工智慧或人工智慧。通常,當我們聽到AI時,我們會想象機器人到處走動,執行與人類相同的任務。但是,我們必須瞭解,雖然有些任務很容易,但有些任務卻很困難,並且距離擁有像人類一樣的機器人還有很長的路要走。

      但是,機器學習是非常真實的並且已經存在。它可以被視為AI的一部分,因為當我們想到AI時,我們想象的大部分內容都是基於機器學習的。

      在過去,我們相信未來的這些機器人將需要向我們學習一切。但是人腦是複雜的,並且並非可以輕鬆描述其協調的所有動作和活動。1959年,亞瑟·塞繆爾(Arthur Samuel)提出了一個絕妙的主意,即我們不需要教計算機,但我們應該讓他們自己學習。塞繆爾(Samuel)也創造了“機器學習”一詞,從那時起,當我們談論機器學習過程時,我們指的是計算機自主學習的能力。

      機器學習有哪些應用?

      在準備這篇文章的內容時,我寫下了沒有進一步說明的示例,假定所有人都熟悉它們。然後我想:人們知道這些是機器學習的例子嗎?

      讓我們考慮一些。

      自然語言處理,例如翻譯。如果您認為百度翻譯是一本非常好的字典,請再考慮一下。百度翻譯本質上是一組機器學習演算法。百度不需要更新百度 Translate;它會根據不同單詞的使用情況自動更新。

      哦,哇 還有什麼?

      雖然仍然是主題,但Siri,Alexa,Cortana都是語音識別和合成的例項。有些技術可以使這些助手識別或發音以前從未聽過的單詞。他們現在能做的事令人難以置信,但在不久的將來,它們將給人留下深刻的印象!

      SPAM過濾。令人印象深刻,但值得注意的是,SPAM不再遵循一組規則。它自己瞭解了什麼是垃圾郵件,什麼不是垃圾郵件。

      推薦系統。Netflix,淘寶,Facebook。推薦給您的所有內容都取決於您的搜尋活動,喜歡,以前的行為等等。一個人不可能像這些網站一樣提出適合您的推薦。最重要的是,他們跨平臺,跨裝置和跨應用程式執行此操作。儘管有些人認為它是侵入性的,但通常情況下,資料不是由人處理的。通常,它是如此複雜,以至於人類無法掌握它。但是,機器將賣方與買方配對,將電影與潛在觀眾配對,將照片與希望觀看的人配對。這極大地改善了我們的生活。

      說到這,淘寶擁有如此出色的機器學習演算法,它們可以高度確定地預測您將購買什麼以及何時購買。那麼,他們如何處理這些資訊?他們將產品運送到最近的倉庫,因此您可以在當天訂購併收到產品。難以置信!

      金融機器學習

      我們名單上的下一個是金融交易。交易涉及隨機行為,不斷變化的資料以及從政治到司法的各種因素,這些因素與傳統金融相距甚遠。儘管金融家無法預測很多這種行為,但是機器學習演算法會照顧到這種情況,並且對市場的變化做出響應的速度比人們想象的要快。

      這些都是業務實現,但還有更多。您可以預測員工是否會留在公司或離開公司,或者可以確定客戶是否值得您光顧-他們可能會從競爭對手那裡購買還是根本不購買。您可以最佳化流程,預測銷售,發現隱藏的機會。機器學習為機會開闢了一個全新的世界,對於在公司戰略部門工作的人們來說,這是一個夢想成真。

      無論如何,這些已在這裡使用。然後,我們將進入自動駕駛汽車的新境界。

      機器學習演算法

      直到最近幾年,無人駕駛汽車還是科幻小說。好吧,不再了。自動駕駛汽車已經驅動了數百萬英里(即使不是數十億英里)。那是怎麼發生的?沒有一套規則。而是一組機器學習演算法,使汽車學習瞭如何極其安全有效地駕駛。

      我們可以繼續學習幾個小時,但我相信您的主旨是:“為什麼要使用機器學習”。

      因此,對您來說,這不是為什麼的問題,而是如何的問題。

      這就是我們的Python機器學習課程所要解決的問題。蓬勃發展的資料科學事業中最重要的技能之一-如何建立機器學習演算法!

      如何建立機器學習演算法?

      假設我們已經提供了輸入資料,建立機器學習演算法最終意味著建立一個輸出正確資訊的模型。

      現在,將此模型視為黑匣子。我們提供輸入,並提供輸出。例如,考慮到過去幾天的氣象資訊,我們可能想建立一個預測明天天氣的模型。我們將輸入模型的輸入可以是度量,例如溫度,溼度和降水。我們將獲得的輸出將是明天的天氣預報。

      現在,在對模型的輸出感到滿意和自信之前,我們必須訓練模型。訓練是機器學習中的核心概念,因為這是模型學習如何理解輸入資料的過程。訓練完模型後,我們可以簡單地將其輸入資料並獲得輸出。

      如何訓練機器學習演算法?

      訓練演算法背後的基本邏輯涉及四個要素:

      a.資料

      b.模型

      c.目標函式

      d.最佳化演算法

      讓我們探索每個。

      首先,我們必須準備一定數量的資料進行訓練。

      通常,這是歷史資料,很容易獲得。

      其次,我們需要一個模型。

      我們可以訓練的最簡單模型是線性模型。在天氣預報示例中,這將意味著找到一些係數,將每個變數與它們相乘,然後將所有結果求和以得到輸出。但是,正如我們稍後將看到的那樣,線性模型只是冰山一角。依靠線性模型,深度機器學習使我們可以建立複雜的非線性模型。它們通常比簡單的線性關係更好地擬合數據。

      第三個要素是目標函式。

      到目前為止,我們獲取了資料,並將其輸入到模型中,並獲得了輸出。當然,我們希望此輸出儘可能接近實際情況。大資料分析機器學習AI入門指南https://www.aaa-cg.com.cn/data/2273.html這就是目標函數出現的地方。它估計平均而言,模型輸出的正確性。整個機器學習框架歸結為最佳化此功能。例如,如果我們的函式正在測量模型的預測誤差,則我們希望將該誤差最小化,或者換句話說,將目標函式最小化。

      我們最後的要素是最佳化演算法。它由機制組成,透過這些機制我們可以更改模型的引數以最佳化目標函式。例如,如果我們的天氣預報模型為:

      明天的天氣等於:W1乘以溫度,W2乘以溼度,最佳化演算法可能會經過以下值:

      W1和W2是將更改的引數。對於每組引數,我們將計算目標函式。然後,我們將選擇具有最高預測能力的模型。我們怎麼知道哪一個最好?好吧,那將是具有最佳目標函式的那個,不是嗎?好的。大!

      您是否注意到我們說了四個成分,而不是說了四個步驟?這是有意的,因為機器學習過程是迭代的。我們將資料輸入模型,並透過目標函式比較準確性。然後,我們更改模型的引數並重復操作。當我們達到無法再最佳化或不需要最佳化的程度時,我們將停止,因為我們已經找到了解決問題的足夠好的解決方案。

    https://www.toutiao.com/i6821026294461891086/

  • 中秋節和大豐收的關聯?
  • OMG戰隊為什麼要引入愛蘿莉?