亚洲a∨无码精品色午夜,四虎永久在线精品视频,少妇丰满大乳被男人揉捏视频,熟女少妇丰满一区二区,少妇无码av无码专区在线观看

關(guān)注一起調(diào)研網(wǎng)微信
當(dāng)前位置: 首頁 » 資訊 » 行業(yè)資訊 » 正文

盤點(diǎn)數(shù)據(jù)挖掘領(lǐng)域十大經(jīng)典算法

放大字體  縮小字體 發(fā)布日期:2015-11-08  來源:一起調(diào)研網(wǎng)  作者:江楓  瀏覽次數(shù):1041
核心提示:國際權(quán)威的學(xué)術(shù)組織 the IEEE International Conference on Data Mining (ICDM) 2006 年 12 月評 選出了數(shù)據(jù)挖掘領(lǐng)域的十大經(jīng)典
 

數(shù)據(jù)挖掘

國際權(quán)威的學(xué)術(shù)組織 the IEEE International Conference on Data Mining (ICDM) 2006 年 12 月評 選出了數(shù)據(jù)挖掘領(lǐng)域的十大經(jīng)典算法: C4.5, k-Means, SVM, Apriori, EM, PageRank, AdaBoost, kNN, Naive Bayes, and CART.

不僅僅是選中的十大算法,其實(shí)參加評選的 18 種算法,實(shí)際上隨便拿出一種來都可以稱得上 是經(jīng)典算法,它們在數(shù)據(jù)挖掘領(lǐng)域都產(chǎn)生了極為深遠(yuǎn)的影響。

1. C4.5

C4.5 算法是機(jī)器學(xué)習(xí)算法中的一種分類決策樹算法,其核心算法是 ID3 算法.

C4.5 算法繼承 了 ID3 算法的優(yōu)點(diǎn),并在以下幾方面對 ID3 算法進(jìn)行了改進(jìn):

  • 1) 用信息增益率來選擇屬性,克服了用信息增益選擇屬性時(shí)偏向選擇取值多的屬性的不足;
  • 2) 在樹構(gòu)造過程中進(jìn)行剪枝;
  • 3) 能夠完成對連續(xù)屬性的離散化處理;
  • 4) 能夠?qū)Σ煌暾麛?shù)據(jù)進(jìn)行處理。

C4.5 算法有如下優(yōu)點(diǎn):產(chǎn)生的分類規(guī)則易于理解,準(zhǔn)確率較高。

其缺點(diǎn):在構(gòu)造樹的過程 中,需要對數(shù)據(jù)集進(jìn)行多次的順序掃描和排序,因而導(dǎo)致算法的低效。

2. The k-means algorithm 即 K-Means 算法

k-means algorithm 算法是一個(gè)聚類算法,把 n 的對象根據(jù)他們的屬性分為 k 個(gè)分割,k < n。

它與處理混合正態(tài)分布的最大期望算法很相似,因?yàn)樗麄兌荚噲D找到數(shù)據(jù)中自然聚類的中心。

它假設(shè)對象屬性來自于空間向量,并且目標(biāo)是使各個(gè)群組內(nèi)部的均方誤差總和最小。

3. Support vector machines

支持向量機(jī),英文為 Support Vector Machine,簡稱 SV 機(jī)(論文中一般簡稱 SVM)。它是一種監(jiān)督式學(xué)習(xí)的方法,它廣泛的應(yīng)用于統(tǒng)計(jì)分類以及回歸分析中。支持向量機(jī)將向量映射到 一個(gè)更高維的空間里,在這個(gè)空間里建立有一個(gè)最大間隔超平面。在分開數(shù)據(jù)的超平面的兩 邊建有兩個(gè)互相平行的超平面。分隔超平面使兩個(gè)平行超平面的距離最大化。假定平行超平 面間的距離或差距越大,分類器的總誤差越小。一個(gè)極好的指南是 C.J.C Burges 的《模式識 別支持向量機(jī)指南》。van der Walt 和 Barnard 將支持向量機(jī)和其他分類器進(jìn)行了比較。

4. The Apriori algorithm

Apriori 算法是一種最有影響的挖掘布爾關(guān)聯(lián)規(guī)則頻繁項(xiàng)集的算法。其核心是基于兩階段頻集 思想的遞推算法。該關(guān)聯(lián)規(guī)則在分類上屬于單維、單層、布爾關(guān)聯(lián)規(guī)則。在這里,所有支持 度大于最小支持度的項(xiàng)集稱為頻繁項(xiàng)集,簡稱頻集。

5. 最大期望(EM)算法

在統(tǒng)計(jì)計(jì)算中,最大期望(EM,Expectation–Maximization)算法是在概率(probabilistic)模 型中尋找參數(shù)最大似然估計(jì)的算法,其中概率模型依賴于無法觀測的隱藏變量(Latent Variabl)。最大期望經(jīng)常用在機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺的數(shù)據(jù)集聚(Data Clustering)領(lǐng)域。

6. PageRank

PageRank 是 Google 算法的重要內(nèi)容。 2001 年 9 月被授予美國專利,專利人是 Google 創(chuàng)始人 之一拉里•佩奇(Larry Page)。因此,PageRank 里的 page 不是指網(wǎng)頁,而是指佩奇,即這個(gè)
等級方法是以佩奇來命名的。

PageRank 根據(jù)網(wǎng)站的外部鏈接和內(nèi)部鏈接的數(shù)量和質(zhì)量倆衡量網(wǎng)站的價(jià)值。PageRank 背后 的概念是,每個(gè)到頁面的鏈接都是對該頁面的一次投票,被鏈接的越多,就意味著被其他網(wǎng) 站投票越多。這個(gè)就是所謂的―鏈接流行度‖——衡量多少人愿意將他們的網(wǎng)站和你的網(wǎng)站掛 鉤。PageRank 這個(gè)概念引自學(xué)術(shù)中一篇論文的被引述的頻度——即被別人引述的次數(shù)越多, 一般判斷這篇論文的權(quán)威性就越高。

7. AdaBoost

Adaboost 是一種迭代算法,其核心思想是針對同一個(gè)訓(xùn)練集訓(xùn)練不同的分類器(弱分類器), 然后把這些弱分類器集合起來,構(gòu)成一個(gè)更強(qiáng)的最終分類器 (強(qiáng)分類器)。其算法本身是通過 改變數(shù)據(jù)分布來實(shí)現(xiàn)的,它根據(jù)每次訓(xùn)練集之中每個(gè)樣本的分類是否正確,以及上次的總體 分類的準(zhǔn)確率,來確定每個(gè)樣本的權(quán)值。將修改過權(quán)值的新數(shù)據(jù)集送給下層分類器進(jìn)行訓(xùn)練, 最后將每次訓(xùn)練得到的分類器最后融合起來,作為最后的決策分類器。

8. kNN: k-nearest neighbor classification

K 最近鄰(k-Nearest Neighbor,KNN)分類算法,是一個(gè)理論上比較成熟的方法,也是最單 的機(jī)器學(xué)習(xí)算法之一。該方法的思路是:如果一個(gè)樣本在特征空間中的 k 個(gè)最相似(即特征空 間中最鄰近)的樣本中的大多數(shù)屬于某一個(gè)類別,則該樣本也屬于這個(gè)類別。

9. Naive Bayes

在眾多的分類模型中,應(yīng)用最為廣泛的兩種分類模型是決策樹模型(Decision Tree Model)和樸 素貝葉斯模型(Naive Bayesian Model,NBC)。 樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,有著 堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類效率。同時(shí),NBC 模型所需估計(jì)的參數(shù)很少,對缺失數(shù)據(jù) 不太敏感,算法也比較簡單。理論上,NBC 模型與其他分類方法相比具有最小的誤差率。但 是實(shí)際上并非總是如此,這是因?yàn)?NBC 模型假設(shè)屬性之間相互獨(dú)立,這個(gè)假設(shè)在實(shí)際應(yīng)用 中往往是不成的,這給 NBC 模型的正確分類帶來了一定影響。在屬性個(gè)數(shù)比較多或者屬 性之間相關(guān)性較大時(shí),NBC 模型的分類效率比不上決策樹模型。而在屬性相關(guān)性較小時(shí), NBC 模型的性能最為良好。

10. CART: 分類與回歸樹

CART, Classification and Regression Trees。 在分類樹下面有兩個(gè)關(guān)鍵的思想。第一個(gè)是關(guān)于 遞歸地劃分自變量空間的想法;第二個(gè)想法是用驗(yàn)證數(shù)據(jù)進(jìn)行剪枝。

by:平江夜談

End.

 
 
[ 資訊搜索 ]  [ 加入收藏 ]  [ 告訴好友 ]  [ 打印本文 ]  [ 關(guān)閉窗口 ]

 
0條 [查看全部]  相關(guān)評論

 
推薦視頻
推薦資訊
點(diǎn)擊排行
?
 
分享按鈕