机器学习中特征选择的方法综述

匿名 (未验证) 提交于 2019-12-03 00:22:01

本文摘自知乎用户文章的第三章节,源出处地址:

作者:城东
链接:https://www.zhihu.com/question/28641663/answer/110165221
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。


当数据预处理完成后,我们需要从所有特征中选择有意义的特征,并将其输入机器学习算法和模型进行训练。

通常来说,从以下两个方面考虑来选择特征:

(1)特征是否发散:如果一个特征不发散(方差接近于0),也就是说样本在这个特征上基本上没有差异,对于样本的区分作用不大,此类特征可以过滤掉;
(2)特征与目标的相关性:这点比较显见,与目标相关性高的特征,应当优选选择。


根据特征选择的形式又可以将特征选择方法分为3种:

(1)Filter(过滤法):按照发散性或者相关性对各个特征进行评分,设定阈值或者待选择阈值的个数,选择特征。
(2)Wrapper(包装法):根据目标函数(通常是预测效果评分,或cost function),每次选择(或排除)若干特征。

(3)Embedded(嵌入法):先使用某些机器学习的算法和模型训练,得到各个特征的权值系数,根据系数从大到小选择特征。类似于Filter方法,只是通过训练来确定特征的优劣。

我们通常使用sklearn中的feature_selection库来进行特征选择。

(一)Filter 过滤法

1.1,方差选择法

  使用方差选择法,先要计算各个特征的方差,然后根据阈值,选择方差大于阈值的特征。工程上使用feature_selection库的VarianceThreshold类来选择特征的代码如下:

from sklearn.feature_selection import VarianceThreshold  #方差选择法,返回值为特征选择后的数据 #参数threshold为方差的阈值 VarianceThreshold(threshold=3).fit_transform(iris.data)

1.2,相关系数法

  使用相关系数法,先要计算各个特征对目标值的相关系数(Pearson相关系数)以及相关系数的P值。用feature_selection库的SelectKBest类结合相关系数来选择特征的代码如下:

from sklearn.feature_selection import SelectKBest from scipy.stats import pearsonr  #选择K个最好的特征,返回选择特征后的数据 #第一个参数为计算评估特征是否好的函数,该函数输入特征矩阵和目标向量,输出二元组(评分,P值)的数组,数组第i项为第i个特征的评分和P值。 #在此定义为计算相关系数 #参数k为选择的特征个数 SelectKBest(lambda X, Y: array(map(lambda x:pearsonr(x, Y), X.T)).T, k=2).fit_transform(iris.data, iris.target)

1.3,卡方检验

  经典的卡方检验是检验定性自变量对定性因变量的相关性。假设自变量有N种取值,因变量有M种取值,考虑自变量等于i且因变量等于j的样本频数的观察值与期望的差距,构建X2统计量:
  这个统计量的含义是自变量对因变量的相关性,feature_selection库的SelectKBest类结合卡方检验选择特征的代码如下:
from sklearn.feature_selection import SelectKBest from sklearn.feature_selection import chi2  #选择K个最好的特征,返回选择特征后的数据 SelectKBest(chi2, k=2).fit_transform(iris.data, iris.target)

1.4,互信息法

  经典的互信息也是评价定性自变量对定性因变量的相关性的,互信息计算公式如下:
  为了处理定量数据,最大信息系数法被提出,使用feature_selection库的SelectKBest类结合最大信息系数法来选择特征的代码如下:
from sklearn.feature_selection import SelectKBest from minepy import MINE    #由于MINE的设计不是函数式的,定义mic方法将其为函数式;  #返回一个二元组,二元组的第2项设置成固定的P值0.5  def mic(x, y):      m = MINE()      m.compute_score(x, y)      return (m.mic(), 0.5)  #选择K个最好的特征,返回特征选择后的数据 SelectKBest(lambda X, Y: array(map(lambda x:mic(x, Y), X.T)).T, k=2).fit_transform(iris.data, iris.target)

(二)Wrapper 包装法

Wrapper最代表性的方法就是递归消除特征法,过程:使用一个基模型来进行多轮训练,每轮训练后,消除若干权值系数的特征,再基于新的特征集进行下一轮训练。使用feature_selection库的RFE类来选择特征的代码如下:

from sklearn.feature_selection import RFE from sklearn.linear_model import LogisticRegression  #递归特征消除法,返回特征选择后的数据 #参数estimator为基模型 #参数n_features_to_select为选择的特征个数 RFE(estimator=LogisticRegression(), n_features_to_select=2).fit_transform(iris.data, iris.target)

(三)Embedded 嵌入法

3.1,基于惩罚项的特征选择法

使用带惩罚项的基模型,除了筛选出特征外,同时也进行了降维。使用feature_selection库的SelectFromModel类结合带L1惩罚项的逻辑回归模型,来选择特征的代码如下:

from sklearn.feature_selection import SelectFromModel from sklearn.linear_model import LogisticRegression  #带L1惩罚项的逻辑回归作为基模型的特征选择 SelectFromModel(LogisticRegression(penalty="l1", C=0.1)).fit_transform(iris.data, iris.target)

实际上,L1惩罚项降维的原理在于保留多个对目标值具有同等相关性的特征中的一个,所以没选到的特征不代表不重要。故,可结合L2惩罚项来优化。具体操作为:若一个特征在L1中的权值为1,选择在L2中权值差别不大且在L1中权值为0的特征构成同类集合,将这一集合中的特征平分L1中的权值,故需要构建一个新的逻辑回归模型:

from sklearn.linear_model import LogisticRegression  class LR(LogisticRegression):     def __init__(self, threshold=0.01, dual=False, tol=1e-4, C=1.0,                  fit_intercept=True, intercept_scaling=1, class_weight=None,                  random_state=None, solver='liblinear', max_iter=100,                  multi_class='ovr', verbose=0, warm_start=False, n_jobs=1):          #权值相近的阈值         self.threshold = threshold         LogisticRegression.__init__(self, penalty='l1', dual=dual, tol=tol, C=C,                  fit_intercept=fit_intercept, intercept_scaling=intercept_scaling, class_weight=class_weight,                  random_state=random_state, solver=solver, max_iter=max_iter,                  multi_class=multi_class, verbose=verbose, warm_start=warm_start, n_jobs=n_jobs)         #使用同样的参数创建L2逻辑回归         self.l2 = LogisticRegression(penalty='l2', dual=dual, tol=tol, C=C, fit_intercept=fit_intercept, intercept_scaling=intercept_scaling, class_weight = class_weight, random_state=random_state, solver=solver, max_iter=max_iter, multi_class=multi_class, verbose=verbose, warm_start=warm_start, n_jobs=n_jobs)      def fit(self, X, y, sample_weight=None):         #训练L1逻辑回归         super(LR, self).fit(X, y, sample_weight=sample_weight)         self.coef_old_ = self.coef_.copy()         #训练L2逻辑回归         self.l2.fit(X, y, sample_weight=sample_weight)          cntOfRow, cntOfCol = self.coef_.shape         #权值系数矩阵的行数对应目标值的种类数目         for i in range(cntOfRow):             for j in range(cntOfCol):                 coef = self.coef_[i][j]                 #L1逻辑回归的权值系数不为0                 if coef != 0:                     idx = [j]                     #对应在L2逻辑回归中的权值系数                     coef1 = self.l2.coef_[i][j]                     for k in range(cntOfCol):                         coef2 = self.l2.coef_[i][k]                         #在L2逻辑回归中,权值系数之差小于设定的阈值,且在L1中对应的权值为0                         if abs(coef1-coef2) < self.threshold and j != k and self.coef_[i][k] == 0:                             idx.append(k)                     #计算这一类特征的权值系数均值                     mean = coef / len(idx)                     self.coef_[i][idx] = mean         return self

使用feature_selection库的SelectFromModel类结合带L1以及L2惩罚项的逻辑回归模型,来选择特征的代码如下:

from sklearn.feature_selection import SelectFromModel   #带L1和L2惩罚项的逻辑回归作为基模型的特征选择 #参数threshold为权值系数之差的阈值 SelectFromModel(LR(threshold=0.5, C=0.1)).fit_transform(iris.data, iris.target)

3.2,基于树模型的特征选择法

树模型中GBDT也可用来作为基模型进行特征选择,使用feature_selection库的SelectFromModel类结合GBDT模型,来选择特征的代码如下:

from sklearn.feature_selection import SelectFromModel from sklearn.ensemble import GradientBoostingClassifier  #GBDT作为基模型的特征选择 SelectFromModel(GradientBoostingClassifier()).fit_transform(iris.data, iris.target)

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!