成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

機器學習中必知必會的 3 種特征選取方法!

人工智能 機器學習
隨著深度學習的蓬勃發展,越來越多的小伙伴開始嘗試搭建深層神經網絡應用于工作場景中,認為只需要把數據放入模型中,調優模型參數就可以讓模型利用自身機制來選擇重要特征,輸出較好的數據結果。

 隨著深度學習的蓬勃發展,越來越多的小伙伴開始嘗試搭建深層神經網絡應用于工作場景中,認為只需要把數據放入模型中,調優模型參數就可以讓模型利用自身機制來選擇重要特征,輸出較好的數據結果。

 

[[377236]]

在現實工作場景中,受限制數據和時間,這樣的做法其實并不可取,一方面大量數據輸入將導致模型訓練周期增長,另一方面在當前細分市場中,并非所有場景都有海量數據,尋找海量數據中的重要特征迫在眉睫。

本文我將教你三個選擇特征的方法,這是任何想從事數據科學領域的都應該知道。本文的結構如下:

  • 數據集加載和準備
  • 方法1:從系數獲取特征重要性
  • 方法2:從樹模型獲取特征重要性
  • 方法3:從 PCA 分數中獲取特征重要性
  • 結論

數據集加載和準備

為了方便介紹,我這里使用"load_breast_cancer"數據集,該數據內置于 Scikit-Learn 中。

以下代碼段演示如何導入庫和加載數據集:

 

  1. import numpy as np 
  2. import pandas as pd 
  3. from sklearn.datasets import load_breast_cancer 
  4. import matplotlib.pyplot as plt 
  5. from matplotlib import rcParams 
  6. rcParams['figure.figsize'] = 14, 7 
  7. rcParams['axes.spines.top'] = False 
  8. rcParams['axes.spines.right'] = False 
  9. Load data 
  10. data = load_breast_cancer() 

調用以下代碼,輸出結果。

 

  1. df = pd.concat([pd.DataFrame(data.data, columns=data.feature_names),pd.DataFrame(data.target, columns=['y'])], axis=1) 
  2. df.head() 

上述數據中有 30 個特征變量和一個目標變量。所有值都是數值,并且沒有缺失的值。在解決縮放問題之前,還需要執行訓練、測試拆分。

 

  1. from sklearn.preprocessing import StandardScaler 
  2. from sklearn.model_selection import train_test_split 
  3. X = df.drop('y', axis=1) 
  4. y = df['y'
  5. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=42) 
  6. ss = StandardScaler() 
  7. X_train_scaled = ss.fit_transform(X_train) 
  8. X_test_scaled = ss.transform(X_test) 

方法1:從系數獲取特征重要性

檢查特征重要性的最簡單方法是檢查模型的系數。例如,線性回歸和邏輯回歸都歸結為一個方程,其中將系數(重要性)分配給每個輸入值。

簡單地說,如果分配的系數是一個大(負或正)數字,它會對預測產生一些影響。相反,如果系數為零,則對預測沒有任何影響。

邏輯非常簡單,讓我們來測試一下,邏輯回歸是一種合適的算法。擬合模型后,系數將存儲在屬性中coef_。

 

  1. from sklearn.linear_model import LogisticRegression 
  2.  
  3. model = LogisticRegression() 
  4. model.fit(X_train_scaled, y_train) 
  5. importances = pd.DataFrame(data={ 
  6.     'Attribute': X_train.columns, 
  7.     'Importance': model.coef_[0] 
  8. }) 
  9. importances = importances.sort_values(by='Importance', ascending=False
  10. # 可視化 
  11. plt.bar(x=importances['Attribute'], height=importances['Importance'], color='#087E8B'
  12. plt.title('Feature importances obtained from coefficients'size=20) 
  13. plt.xticks(rotation='vertical'
  14. plt.show() 

下面是相應的可視化效果:

 


該方法最大特點:「簡單」、「高效」。系數越大(在正方向和負方向),越影響預測效果。

 

 

方法2:從樹模型獲取重要性

訓練任何樹模型后,你都可以訪問 feature_importances 屬性。這是獲取功特征重要性的最快方法之一。

以下代碼演示如何導入模型并在訓練數據上擬合模型,以及重要性的獲取:

 

  1. from xgboost import XGBClassifier 
  2.  
  3. model = XGBClassifier() 
  4. model.fit(X_train_scaled, y_train) 
  5. importances = pd.DataFrame(data={ 
  6.     'Attribute': X_train.columns, 
  7.     'Importance': model.feature_importances_ 
  8. }) 
  9. importances = importances.sort_values(by='Importance', ascending=False
  10. # 可視化 
  11. plt.bar(x=importances['Attribute'], height=importances['Importance'], color='#087E8B'
  12. plt.title('Feature importances obtained from coefficients'size=20) 
  13. plt.xticks(rotation='vertical'
  14. plt.show() 

相應的可視化效果如下所示:

 

方法3:從 PCA 分數獲取特征重要性

主成分分析(PCA)是一種出色的降維技術,也可用于確定特征的重要性。

PCA 不會像前兩種技術那樣直接顯示最重要的功能。相反,它將返回 N 個主組件,其中 N 等于原始特征的數量。

 

  1. from sklearn.decomposition import PCA 
  2. pca = PCA().fit(X_train_scaled) 
  3. # 可視化 
  4. plt.plot(pca.explained_variance_ratio_.cumsum(), lw=3, color='#087E8B'
  5. plt.title('Cumulative explained variance by number of principal components'size=20) 
  6. plt.show() 

 

但這是什么意思呢?這意味著你可以使用前五個主要組件解釋源數據集中 90%的方差。同樣,如果你不知道這意味著什么,繼續往下看。

 

  1. loadings = pd.DataFrame( 
  2.     data=pca.components_.T * np.sqrt(pca.explained_variance_),  
  3.     columns=[f'PC{i}' for i in range(1, len(X_train.columns) + 1)], 
  4.     index=X_train.columns 
  5. loadings.head() 

 

第一個主要組成部分至關重要。它只是一個要素,但它解釋了數據集中超過 60% 的方差。從上圖中可以看到,它與平均半徑特征之間的相關系數接近 0.8,這被認為是強正相關。

讓我們可視化所有輸入要素與第一個主組件之間的相關性。下面是整個代碼段(包括可視化):

 

  1. pc1_loadings = loadings.sort_values(by='PC1', ascending=False)[['PC1']] 
  2. pc1_loadings = pc1_loadings.reset_index() 
  3. pc1_loadings.columns = ['Attribute''CorrelationWithPC1'
  4.  
  5. plt.bar(x=pc1_loadings['Attribute'], height=pc1_loadings['CorrelationWithPC1'], color='#087E8B'
  6. plt.title('PCA loading scores (first principal component)'size=20) 
  7. plt.xticks(rotation='vertical'
  8. plt.show() 

 

這就是如何"破解"PCA,使用它作為特征重要性的方法。

結論

上述總結來 3 個機器學習特征重要性的方法,這三個可根據場景靈活運用。如果你對機器學習感興趣,可以關注我。

責任編輯:華軒 來源: 機器學習社區
相關推薦

2021-04-18 22:06:29

機器學習算法數據

2022-08-26 14:46:31

機器學習算法線性回歸

2021-08-02 18:04:25

機器學習數據集工具

2023-12-26 12:10:13

2018-05-04 08:20:39

機器學習深度學習人工智能

2023-10-13 00:00:00

設計模式GO語言

2020-07-10 07:58:14

Linux

2024-11-15 11:11:48

2021-04-01 22:19:54

機器學習模型數據

2024-01-03 07:56:50

2022-05-18 09:01:19

JSONJavaScript

2018-10-26 14:10:21

2023-04-20 14:31:20

Python開發教程

2023-05-08 15:25:19

Python編程語言編碼技巧

2022-02-16 07:00:00

機器學習特征選擇過濾法

2022-08-19 10:31:32

Kafka大數據

2023-10-09 18:52:14

SOLIDJava

2024-07-26 08:32:44

panic?Go語言

2020-08-23 18:18:27

Python列表數據結構

2024-06-19 10:08:34

GoChannel工具
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲精品电影在线观看 | 国产这里只有精品 | 国产一区二区三区在线视频 | 国产激情网 | 欧美午夜精品久久久久免费视 | 欧美一区二区三区视频 | 国产在线视频一区二区 | 本道综合精品 | 永久www成人看片 | 欧美日韩精品一区二区天天拍 | 91久久| 亚洲综合精品 | 狠狠操狠狠色 | 成人欧美一区二区三区黑人孕妇 | 久久国产精品一区二区三区 | 欧美一区二区在线观看 | 亚洲久久 | 超碰超碰| 天天天天天天天干 | 日本精品一区二区三区视频 | 韩日视频在线观看 | 日韩一区二区久久 | 黄色片网站国产 | 欧美精品二区 | 亚洲视频在线播放 | av激情在线 | 久久精品黄色 | 国精日本亚洲欧州国产中文久久 | 午夜精品久久久久99蜜 | 日韩欧美一级片 | 国产精品精品视频一区二区三区 | 国内毛片毛片毛片毛片 | 精品久久国产 | 亚洲乱码一区二区三区在线观看 | 亚洲精品一区二区三区蜜桃久 | 在线精品一区二区三区 | 五月婷婷激情网 | av网站在线播放 | 亚洲精品国产电影 | 精品视频久久久久久 | 亚洲成人三区 |