Sklearn-CrossValidation 交叉验证

匿名 (未验证) 提交于 2019-12-03 00:39:02

1. 交叉验证概述

进行模型验证的一个重要目的是要选出一个最合适的模型,对于监督学习而言,我们希望模型对于未知数据的泛化能力强,所以就需要模型验证这一过程来体现不同的模型对于未知数据的表现效果。

最先我们用训练准确度(用全部数据进行训练和测试)来衡量模型的表现,这种方法会导致模型过拟合;为了解决这一问题,我们将所有数据分成训练集和测试集两部分,我们用训练集进行模型训练,得到的模型再用测试集来衡量模型的预测表现能力,这种度量方式叫测试准确度,这种方式可以有效避免过拟合。

测试准确度的一个缺点是其样本准确度是一个高方差估计high varianceestimate),所以该样本准确度会依赖不同的测试集,其表现效果不尽相同。

2. K折交叉验证

  1. 将数据集平均分割成K个等份
  2. 使用1份数据作为测试数据,其余作为训练数据
  3. 计算测试准确率
  4. 使用不同的测试集,重复2、3步骤
  5. 测试准确率做平均,作为对未知数据预测准确率的估计

sklearn.model_selection.Kfold

classsklearn.model_selection.KFold(n_splits=3,shuffle=False, random_state=None)

参数:

  • n_splits3,最小为2K折验证的Kֵ
  • shuffleFalse;shuffle会对数据产生随机搅动(洗牌)
  • random_stateNone,随机种子

3. sklearn.cross_validation模块

cross validation大概的意思是:对于原始数据我们要将其一部分分为traindata,一部分分为test data。train data用于训练,test data用于测试准确率在test data上测试的结果叫做validation error。将一个算法作用于一个原始数据,我们不可能只做出随机的划分一次train和testdata,然后得到一个validation error,就作为衡量这个算法好坏的标准。因为这样存在偶然性。我们必须多次的随机的划分train data和test data,分别在其上面算出各自的validation error。这样就有一组validationerror,根据这一组validationerror,就可以较好的准确的衡量算法的好坏。crossvalidation是在数据量有限的情况下的非常好的一个evaluate performance的方法。而对原始数据划分出train data和testdata的方法有很多种,这也就造成了cross validation的方法有很多种。

主要函数:

sklearn中的cross validation模块,最主要的函数是如下函数:

sklearn.cross_validation.cross_val_score

调用形式是:sklearn.cross_validation.cross_val_score(estimator, X, y=None, scoring=None, cv=None,n_jobs=1, verbose=0, fit_params=None, pre_dispatch=‘2*n_jobs‘)

返回值就是对于每次不同的的划分raw data时,在test data上得到的分类的准确率。

参数解释:

estimator:是不同的分类器,可以是任何的分类器。比如支持向量机分类器:estimator = svm.SVC(kernel=‘linear‘, C=1)

cv代表不同的cross validation的方法如果cv是一个intֵ,并且如果提供了rawtarget参数,那么就代表使用StratifiedKFold分类方式如果cv是一个int值,并且没有提供rawtarget参数,那么就代表使用KFold分类方式也可以给定它一个CV迭代策略生成器,指定不同的CV方法

scoring:默认Nnoe准确率的算法可以通过score_func参数指定如果不指定的话,是用estimator默认自带的准确率算法。

4. 几种不同的CV策略生成器

cross_val_score中的参数cv可以接受不同的CV策略生成器作为参数,以此使用不同的CV算法。除了刚刚提到的KFold以及StratifiedKFold这两种对rawdata进行划分的方法之外,还有其他很多种划分方法这里介绍几种sklearn中的CV策略生成器函数

  • K-fold

最基础的CV算法,也是默认采用的CV策略?。主要的参数包括两个,一个是样本数目,一个是k-fold要划分的份数。

# 交叉验证例子 import numpy as np from sklearn.model_selection import KFold  X= np.array([[1, 2], [3, 4], [1, 2], [3, 4]]) y= np.array([1, 2, 3, 4]) kf= KFold(n_splits=2) kf.get_n_splits(X)#给出K折的折数,输出为2 print(kf)  #输出为:KFold(n_splits=2, random_state=None,shuffle=False) for train_index, test_index in kf.split(X):     print("TRAIN:",train_index, "TEST:", test_index)     X_train,X_test = X[train_index], X[test_index]     y_train,y_test = y[train_index], y[test_index] #输出:TRAIN: [2 3] TEST: [0 1] #TRAIN: [0 1] TEST: [2 3] 

#这里kf.split(X)返回的是X中进行分裂后traintest的索引值令X中数据集的索引为0123

第一次分裂,先选择test,索引为01的数据集为test,剩下索引为23的数据集为train

第二次分裂,先选择test,索引为23的数据集为test,剩下索引为01的数据集为train

  • Stratified k-fold

原文:https://www.cnblogs.com/Allen-rg/p/9255948.html

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!