久久精品无码视频|精产国品色情一二三区在线观看|国产性爱自拍视频|亚洲av韩国av|日韩美女一级AAA大片|少妇无码激情诱惑|日韩AV在线播放有码|一级黄片一级黄片|av上一页亲亲久草av|aaa在线观看国产做爱

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能開發(fā)者 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

機(jī)器學(xué)習(xí)初學(xué)者必須知道的十大算法

本文作者: AI研習(xí)社 2017-12-05 11:02
導(dǎo)語:還在為不知道學(xué)什么算法入門機(jī)器學(xué)習(xí)感到頭疼?

雷鋒網(wǎng)按:本文首發(fā)于阿里云云棲社區(qū), 雷鋒網(wǎng)獲其授權(quán)發(fā)布。

還在為不知道學(xué)什么算法入門機(jī)器學(xué)習(xí)感到頭疼?本文作者通過自身的學(xué)習(xí)向初學(xué)者介紹十大機(jī)器學(xué)習(xí)(ML)算法,并附有數(shù)字和實(shí)例以便于理解。

哈佛商業(yè)評論稱數(shù)據(jù)科學(xué)家是21世紀(jì)最性感的工作。所以,對于那些ML剛剛開始的人來說,這篇博客機(jī)器學(xué)習(xí)算法工程師需要知道的十大算法是非常有用的。

ML算法是可以從數(shù)據(jù)中學(xué)習(xí)并從中改進(jìn)的算法,無需人工干預(yù)。學(xué)習(xí)任務(wù)可能包括將輸入映射到輸出,在未標(biāo)記的數(shù)據(jù)中學(xué)習(xí)隱藏的結(jié)構(gòu),或者“基于實(shí)例的學(xué)習(xí)”,其中通過將新實(shí)例與來自存儲在存儲器中的訓(xùn)練數(shù)據(jù)的實(shí)例進(jìn)行比較來為新實(shí)例生成類標(biāo)簽。

ML算法的類型

有三種ML算法:

1.監(jiān)督學(xué)習(xí):

監(jiān)督學(xué)習(xí)可以理解為:使用標(biāo)記的訓(xùn)練數(shù)據(jù)來學(xué)習(xí)從輸入變量(X)到輸出變量(Y)的映射函數(shù)。

Y = f(X)

監(jiān)督學(xué)習(xí)問題可以有兩種類型:

  • 分類:預(yù)測輸出變量處于類別形式的給定樣本的結(jié)果。例如男性和女性,病態(tài)和健康等標(biāo)簽。

  • 回歸:預(yù)測給定樣本的輸出變量的實(shí)值結(jié)果。例子包括表示降雨量和人的身高的實(shí)值標(biāo)簽。

在這篇博客中介紹的前5個算法——線性回歸,Logistic回歸,CART,樸素貝葉斯,KNN都是監(jiān)督學(xué)習(xí)。

人工智能領(lǐng)域的大牛吳恩達(dá)曾在他的公開課中提到,目前機(jī)器學(xué)習(xí)帶來的經(jīng)濟(jì)價值全部來自監(jiān)督學(xué)習(xí)。

2.無監(jiān)督學(xué)習(xí):

無監(jiān)督學(xué)習(xí)問題只有輸入變量(X),但沒有相應(yīng)的輸出變量。它使用無標(biāo)簽的訓(xùn)練數(shù)據(jù)來模擬數(shù)據(jù)的基本結(jié)構(gòu)。

無監(jiān)督學(xué)習(xí)問題可以有三種類型:

  • 關(guān)聯(lián):發(fā)現(xiàn)數(shù)據(jù)集合中的相關(guān)數(shù)據(jù)共現(xiàn)的概率。它廣泛用于市場籃子分析。例如:如果顧客購買面包,他有80%的可能購買雞蛋。

  • 群集:對樣本進(jìn)行分組,使得同一個群集內(nèi)的對象彼此之間的關(guān)系比另一個群集中的對象更為相似。

  • 維度降低:維度降低意味著減少數(shù)據(jù)集的變量數(shù)量,同時確保重要的信息仍然傳達(dá)??梢允褂锰卣魈崛》椒ê吞卣鬟x擇方法來完成維度降低。特征選擇選擇原始變量的一個子集。特征提取執(zhí)行從高維空間到低維空間的數(shù)據(jù)轉(zhuǎn)換。例如:PCA算法是一種特征提取方法。

Apriori,K-means,PCA是無監(jiān)督學(xué)習(xí)的例子。

3.強(qiáng)化學(xué)習(xí):

強(qiáng)化學(xué)習(xí)是一種機(jī)器學(xué)習(xí)算法,它允許代理根據(jù)當(dāng)前狀態(tài)決定最佳的下一個動作。

強(qiáng)化算法通常通過反復(fù)試驗(yàn)來學(xué)習(xí)最佳行為。它們通常用于機(jī)器人的訓(xùn)練,機(jī)器人可以通過在碰到障礙物后接收負(fù)面反饋來學(xué)習(xí)避免碰撞。近期的alphago zero就是采用的強(qiáng)化學(xué)習(xí)的方法,來完成實(shí)驗(yàn)的。

監(jiān)督學(xué)習(xí)算法

1.線性回歸

在ML中,我們有一組輸入變量(x)用于確定輸出變量(y)。輸入變量和輸出變量之間存在某種關(guān)系,ML的目標(biāo)是量化這種關(guān)系。

機(jī)器學(xué)習(xí)初學(xué)者必須知道的十大算法

圖1

在線性回歸中,輸入變量(x)和輸出變量(y)之間的關(guān)系表示為形式為y = ax + b的方程。因此,線性回歸的目標(biāo)是找出系數(shù)a和b的值。這里,a是截距,b是線的斜率。

圖1顯示了數(shù)據(jù)集的繪制x和y值。目標(biāo)是擬合最接近大部分點(diǎn)的線。

2. Logistic回歸

邏輯回歸最適合二進(jìn)制分類(y = 0或1的數(shù)據(jù)集,其中1表示默認(rèn)類)例如:在預(yù)測事件是否發(fā)生時,發(fā)生的事件被分類為1。在預(yù)測人會生病或不生病,生病的實(shí)例記為1)。它是以其中使用的變換函數(shù)命名的,稱為邏輯函數(shù)h(x)= 1 /(1 + e ^ x),它是一個S形曲線。

在邏輯回歸中,輸出是以缺省類別的概率形式出現(xiàn)的。因?yàn)檫@是一個概率,所以輸出在0——1的范圍內(nèi)。輸出(y值)通過對數(shù)轉(zhuǎn)換x值,使用對數(shù)函數(shù)h(x)= 1 /(1 + e ^ -x)來生成。然后應(yīng)用一個閾值來強(qiáng)制這個概率進(jìn)入二元分類。

機(jī)器學(xué)習(xí)初學(xué)者必須知道的十大算法

圖二

在圖2中,為了確定腫瘤是否是惡性的,默認(rèn)變量是y = 1(腫瘤=惡性);x變量可以是腫瘤的量度,例如腫瘤的大小。如圖所示,邏輯函數(shù)將數(shù)據(jù)集的各種實(shí)例的x值轉(zhuǎn)換成0到1的范圍。如果概率超過閾值0.5(由水平線示出),則將腫瘤分類如惡性。

邏輯回歸的目標(biāo)是使用訓(xùn)練數(shù)據(jù)來找到系數(shù)b0和b1的值,以使預(yù)測結(jié)果與實(shí)際結(jié)果之間的誤差最小化。這些系數(shù)是使用最大似然估計(jì)技術(shù)估計(jì)的。

3. CART

分類和回歸樹(CART)是決策樹的一個實(shí)現(xiàn)方式。

非終端節(jié)點(diǎn)是根節(jié)點(diǎn)和內(nèi)部節(jié)點(diǎn),終端節(jié)點(diǎn)是葉節(jié)點(diǎn)。每個非終端節(jié)點(diǎn)表示單個輸入變量(x), 葉節(jié)點(diǎn)表示輸出變量(y)。該模型用于做出如下預(yù)測:遍歷樹的分裂到達(dá)一個葉節(jié)點(diǎn),并輸出葉節(jié)點(diǎn)上存在的值。

圖3中的決策樹根據(jù)年齡和婚姻狀況分類是否購買跑車或小型貨車。如果這個人30多年沒有結(jié)婚,我們可以如下預(yù)測:“30多年? - >是 - >'已婚? - >不。因此,該模型輸出一個跑車。

機(jī)器學(xué)習(xí)初學(xué)者必須知道的十大算法

圖三

4.樸素貝葉斯

為了計(jì)算事件發(fā)生的概率,假設(shè)已經(jīng)發(fā)生了另一個事件,我們使用貝葉斯定理。為了計(jì)算給定某個變量值的結(jié)果的概率,也就是說,根據(jù)我們的先驗(yàn)知識(d)計(jì)算假設(shè)(h)為真的概率,我們使用貝葉斯定理如下:

P(h | d)=(P(d | h)* P(h))/ P(d)

· P(h | d)=后驗(yàn)概率。

· P(d | h)=可能性。數(shù)據(jù)d的概率假設(shè)h是真的。

· P(h)=類別先驗(yàn)概率。假設(shè)h的可能性為真(不考慮數(shù)據(jù))。

· P(d)=預(yù)測值先驗(yàn)概率。數(shù)據(jù)的可能性(與假設(shè)無關(guān))。

機(jī)器學(xué)習(xí)初學(xué)者必須知道的十大算法

圖四

以圖4為例,如果天氣=“陽光”,結(jié)果如何?

為了確定結(jié)果play ='yes'或'no',給定變量weather ='sunny'的值,計(jì)算P(是| sunny)和P(no | sunny),并選擇結(jié)果的概率較高。

P(是|晴天)=(P(晴天|是)* P(是))/ P(晴天)

=(3/9 * 9/14)/(5/14)

= 0.60

P(no | sunny)=(P(晴天)* P(no))/ P(晴天)

=(2/5 * 5/14)/(5/14)

= 0.40

因此,如果天氣=“晴天”,結(jié)果是play ='是'。

5. KNN

K鄰近算法使用整個數(shù)據(jù)集作為訓(xùn)練集,而不是將數(shù)據(jù)集分成訓(xùn)練集和測試集。

當(dāng)新的數(shù)據(jù)實(shí)例需要結(jié)果時,KNN算法遍歷整個數(shù)據(jù)集,以找到新實(shí)例的k個最近的實(shí)例,或者與新記錄最相似的k個實(shí)例,然后對于分類問題的結(jié)果(對于回歸問題)或模式輸出均值。

實(shí)例之間的相似度使用歐幾里德距離和Hamming距離等度量來計(jì)算。

無監(jiān)督學(xué)習(xí)算法

6. Apriori

Apriori算法用于事務(wù)數(shù)據(jù)庫挖掘,然后生成關(guān)聯(lián)規(guī)則。它在市場籃子分析中被廣泛使用,在這個分析中,檢查數(shù)據(jù)庫中經(jīng)常出現(xiàn)的產(chǎn)品組合。一般來說,我們寫出如果一個人購買項(xiàng)目X,然后他購買項(xiàng)目Y的關(guān)聯(lián)規(guī)則為:X - > Y。

機(jī)器學(xué)習(xí)初學(xué)者必須知道的十大算法

例如:如果一個人購買牛奶和糖,那么他很可能會購買咖啡粉。這可以寫成關(guān)聯(lián)規(guī)則的形式:{牛奶,糖} - >咖啡粉。

7. K-means

K-means是一種迭代算法,將相似的數(shù)據(jù)分組到簇中。計(jì)算k個簇的質(zhì)心,并將一個數(shù)據(jù)點(diǎn)分配給質(zhì)心和數(shù)據(jù)點(diǎn)之間距離最小的簇。

機(jī)器學(xué)習(xí)初學(xué)者必須知道的十大算法

步驟1:k-means初始化:

a)選擇k的值。在這里,讓我們?nèi) = 3。

b)將每個數(shù)據(jù)點(diǎn)隨機(jī)分配到3個群集中的任何一個。

c)為每個集群計(jì)算集群質(zhì)心。紅色,藍(lán)色和綠色星星表示3個星團(tuán)中的每一個的質(zhì)心。

步驟2:將每個觀察結(jié)果與群集相關(guān)聯(lián):

將每個點(diǎn)重新分配到最近的集群質(zhì)心。這里,上面的5個點(diǎn)被分配到具有藍(lán)色質(zhì)心的簇。按照相同的步驟將點(diǎn)分配給包含紅色和綠色質(zhì)心的群集。

步驟3:重新計(jì)算質(zhì)心:

計(jì)算新簇的質(zhì)心。舊的質(zhì)心由灰色星星表示,而新的質(zhì)心是紅色,綠色和藍(lán)色星星。

步驟四:迭代,然后退出,如果不變。

重復(fù)步驟2-3,直到?jīng)]有從一個群集切換到另一個群集。一旦連續(xù)兩個步驟沒有切換,退出k-means算法。

8. PCA

主成分分析(PCA)用于通過減少變量的數(shù)量來使數(shù)據(jù)易于探索和可視化。這是通過將數(shù)據(jù)中的最大方差捕獲到一個稱為“主要成分”的軸上的新的坐標(biāo)系來完成的。每個組件是原始變量的線性組合,并且彼此正交。組件之間的正交性表明這些組件之間的相關(guān)性為零。

機(jī)器學(xué)習(xí)初學(xué)者必須知道的十大算法

第一個主成分捕捉數(shù)據(jù)中最大變化的方向。第二個主要組件捕獲數(shù)據(jù)中的剩余變量,但變量與第一個組件不相關(guān)。

9.隨機(jī)森林裝袋

隨機(jī)森林是對袋裝決策樹(bagged decision trees)改進(jìn)。

裝袋(Bagging):裝袋的第一步是創(chuàng)建多個模型,使用Bootstrap Sampling方法創(chuàng)建數(shù)據(jù)集。在Bootstrap Sampling中,每個生成的訓(xùn)練集由來自原始數(shù)據(jù)集的隨機(jī)子樣本組成。這些訓(xùn)練集中的每一個與原始數(shù)據(jù)集大小相同,但有些記錄會重復(fù)多次,有些記錄根本不會出現(xiàn)。然后,整個原始數(shù)據(jù)集被用作測試集。因此,如果原始數(shù)據(jù)集的大小為N,那么每個生成的訓(xùn)練集的大小也是N,測試集的大小也是N。

裝袋的第二步是在不同的生成的訓(xùn)練集上使用相同的算法創(chuàng)建多個模型。在這種情況下,讓我們討論隨機(jī)森林。與決策樹不同的是,每個節(jié)點(diǎn)被分割成最小化誤差的最佳特征,在隨機(jī)森林中,我們選擇隨機(jī)選擇的特征來構(gòu)建最佳分割。在每個分割點(diǎn)處要搜索的特征的數(shù)量被指定為隨機(jī)森林算法的參數(shù)。

因此,在用隨機(jī)森林裝袋時,每棵樹都是使用記錄的隨機(jī)樣本構(gòu)建的,每個分叉是使用預(yù)測變量的隨機(jī)樣本構(gòu)建的。

10. Boosting with AdaBoost

套袋(Bagging)是一個平行的集合,因?yàn)槊總€模型都是獨(dú)立建立的。另一方面,boosting是一個連續(xù)的集合,每個模型的建立是基于糾正前一個模型的錯誤分類。

Adaboost代表Adaptive Boosting。

機(jī)器學(xué)習(xí)初學(xué)者必須知道的十大算法

圖9

在圖9中,步驟1,2,3涉及一個稱為決策殘缺的弱學(xué)習(xí)者(一個1級決策樹,僅基于1個輸入特征的值進(jìn)行預(yù)測)。步驟4結(jié)合了以前模型的3個決策樹(在決策樹中有3個分裂規(guī)則)。

步驟1:從1個決策樹開始,對1個輸入變量做出決定:

數(shù)據(jù)點(diǎn)的大小表明我們已經(jīng)應(yīng)用相同的權(quán)重將它們分類為一個圓或三角形。決策樹在上半部分產(chǎn)生了一條水平線來分類這些點(diǎn)。我們可以看到有2個圓圈錯誤地預(yù)測為三角形。因此,我們將為這兩個圈子分配更高的權(quán)重,并應(yīng)用另一個決策樹樁。

步驟2:移動到另一個決策樹,以決定另一個輸入變量:

我們觀察到,上一步的兩個錯誤分類圈的大小大于其余點(diǎn)?,F(xiàn)在第二個決策樹會試圖正確預(yù)測這兩個圓。

步驟3:訓(xùn)練另一個決策樹來決定另一個輸入變量:

來自上一步的3個錯誤分類圈大于其余的數(shù)據(jù)點(diǎn)?,F(xiàn)在,已經(jīng)生成了一條垂直線,用于分類圓和三角形。

步驟4:合并決策樹:

我們已經(jīng)結(jié)合了以前3個模型中的分隔符,并觀察到這個模型中的復(fù)雜規(guī)則與任何一個單獨(dú)的弱學(xué)習(xí)者相比,正確地分類了數(shù)據(jù)點(diǎn)。

作者信息

Dr. Jason Brownlee 是一名機(jī)器學(xué)習(xí)從業(yè)者,學(xué)術(shù)研究人員,致力于幫助開發(fā)人員從入門到精通機(jī)器學(xué)習(xí)。

本文由北郵@愛可可-愛生活老師推薦,阿里云云棲社區(qū)組織翻譯。

文章原標(biāo)題《top-10-machine-learning-algorithms-beginners》

作者:Reena Shaw 譯者:虎說八道

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

機(jī)器學(xué)習(xí)初學(xué)者必須知道的十大算法

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請?jiān)L問:yanxishe.com
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說