天天看點

這七種資料分析領域中最為人稱道的降維方法

近來由于資料記錄和屬性規模的急劇增長,大資料處理平台和并行資料分析算法也随之出現。于此同時,這也推動了資料降維處理的應用。實際上,資料量有時過猶不及。有時在資料分析應用中大量的資料反而會産生更壞的性能。

最新的一個例子是采用2009 kdd challenge 大資料集來預測客戶流失量。該資料集次元達到15000 維。大多數資料挖掘算法都直接對資料逐列處理,在資料數目一大時,導緻算法越來越慢。該項目的最重要的就是在減少資料列數的同時保證丢失的資料資訊盡可能少。

以該項目為例,我們開始來探讨在目前資料分析領域中最為資料分析人員稱道和接受的資料降維方法。

1.缺失值比率(missing values ratio)

該方法的是基于包含太多缺失值的資料列包含有用資訊的可能性較少。是以,可以将資料列缺失值大于某個門檻值的列去掉。門檻值越高,降維方法更為積極,即降維越少。該方法示意圖如下:

2.低方差濾波(low variance filter)

與上個方法相似,該方法假設資料列變化非常小的列包含的資訊量少。是以,所有的資料列方差小的列被移除。需要注意的一點是:方差與資料範圍相關的,是以在采用該方法前需要對資料做歸一化處理。算法示意圖如下:

3.高相關濾波(high correlation filter)

高相關濾波認為當兩列資料變化趨勢相似時,它們包含的資訊也顯示。這樣,使用相似列中的一列就可以滿足機器學習模型。對于數值列之間的相似性通過計算相關系數來表示,對于名詞類列的相關系數可以通過計算皮爾遜卡方值來表示。相關系數大于某個門檻值的兩列隻保留一列。同樣要注意的是:相關系數對範圍敏感,是以在計算之前也需要對資料進行歸一化處理。算法示意圖如下:

4.随機森林/組合樹(random forests)

組合決策樹通常又被成為随機森林,它在進行特征選擇與建構有效的分類器時非常有用。一種常用的降維方法是對目标屬性産生許多巨大的樹,然後根據對每個屬性的統計結果找到資訊量最大的特征子集。例如,我們能夠對一個非常巨大的資料集生成非常層次非常淺的樹,每顆樹隻訓練一小部分屬性。如果一個屬性經常成為最佳分裂屬性,那麼它很有可能是需要保留的資訊特征。對随機森林資料屬性的統計評分會向我們揭示與其它屬性相比,哪個屬性才是預測能力最好的屬性。算法示意圖如下:

5.主成分分析(pca)

主成分分析是一個統計過程,該過程通過正交變換将原始的n 維資料集變換到一個新的被稱做主成分的資料集中。變換後的結果中,第一個主成分具有最大的方內插補點,每個後續的成分在與前述主成分正交條件限制下與具有最大方差。降維時僅儲存前m(m

6.反向特征消除(backward feature elimination)

在該方法中,所有分類算法先用n 個特征進行訓練。每次降維操作,采用n-1 個特征對分類器訓練n 次,得到新的n 個分類器。将新分類器中錯分率變化最小的分類器所用的n-1 維特征作為降維後的特征集。不斷的對該過程進行疊代,即可得到降維後的結果。第k 次疊代過程中得到的是n-k 維特征分類器。通過選擇最大的錯誤容忍率,我們可以得到在選擇分類器上達到指定分類性能最小需要多少個特征。算法示意圖如下:

7.前向特征構造(forward feature construction)

前向特征建構是反向特征消除的反過程。在前向特征過程中,我們從1 個特征開始,每次訓練添加一個讓分類器性能提升最大的特征。前向特征構造和反向特征消除都十分耗時。它們通常用于輸入維數已經相對較低的資料集。算法示意圖如下:

我們選擇2009 kdd chanllenge 的削資料集來對這些降維技術在降維率、準确度損失率以及計算速度方面進行比較。當然,最後的準确度與損失率也與選擇的資料分析模型有關。是以,最後的降維率與準确度的比較是在三種模型中進行,這三種模型分别是:決策樹,神經網絡與樸素貝葉斯。

通過運作優化循環,最佳循環終止意味着低緯度與高準确率取決于七大降維方法與最佳分類模型。最後的最佳模型的性能通過采用所有特征進行訓練模型的基準準确度與roc 曲線下的面積來進行比較。下面是對所有比較結果的對比。

從上表中的對比可知,資料降維算法不僅僅是能夠提高算法執行的速度,同時也能過提高分析模型的性能。在對資料集采用:缺失值降維、低方差濾波,高相關濾波或者随機森林降維時,表中的aoc 在測試資料集上有小幅度的增長。

确實在大資料時代,資料越多越好似乎已經成為公理。我們再次解釋了當資料資料集寶航過多的資料噪聲時,算法的性能會導緻算法的性能達不到預期。移除資訊量較少甚至無效資訊唯獨可能會幫助我們建構更具擴充性、通用性的資料模型。該資料模型在新資料集上的表現可能會更好。

最近,我們咨詢了linkedin 的一個資料分析小組在資料分析中最為常用的資料降維方法,除了本部落格中提到的其中,還包括:随機投影(random projections)、非負矩陣分解(n0n-negative matrix factorization),自動編碼(auto-encoders),卡方檢測與資訊增益(chi-square and information gain),多元标定(multidimensional scaling), 相關性分析(coorespondence analysis), 因子分析(factor analysis)、聚類(clustering)以及貝葉斯模型(bayesian models)。感謝asterios stergioudis, raoul savos 以及michael will 在linkedin 小組中提供意見。

本部落格的描述的工作流程在knime examples 伺服器上的“003_preprocessing/003005_dimensionality_reduction”目錄上可以找到。2009 kdd challenge 的大小資料集下載下傳位址:下載下傳。

本博文僅僅是整個工程的一個簡要總結,如果你想了解更多的細節,你可以閱讀相關的白皮書。

本文轉自d1net(轉載)

繼續閱讀