用随机森林分类

匿名 (未验证) 提交于 2019-12-02 23:53:01

分类方法有很多种,什么多分类逻辑回归,KNN,决策树,SVM,随机森林等,

比较好用的且比较好理解的还是随机森林,现在比较常见的有python和R的实现。原理就不解释了,废话不多说,show me the code

import csv import numpy as np from sklearn.ensemble import RandomForestRegressor from sklearn import preprocessing from sklearn.utils import shuffle from sklearn.metrics import mean_squared_error, explained_variance_score  def load_dataset(filename):  file_reader = csv.reader(open(filename,'rt'), delimiter=',')  X, y = [], []  for row in file_reader:     X.append(row[0:4])     y.append(row[-1])  # Extract feature names  feature_names = np.array(X[0])  return np.array(X[1:]).astype(np.float32),np.array(y[1:]).astype(np.float32), feature_names  if __name__=='__main__':  X, y, feature_names = load_dataset("D:\\yudata.csv")  X, y = shuffle(X, y, random_state=7)  # X, y = random.shuffle(X, y)  num_training = int(0.9 * len(X))  X_train, y_train = X[:num_training],y[:num_training]  X_test, y_test = X[num_training:],y[num_training:]   rf_regressor = RandomForestRegressor(n_estimators=1000, max_depth=10, min_samples_split=2)  rf_regressor.fit(X_train, y_train)  y_pred = rf_regressor.predict(X_test)  mse = mean_squared_error(y_test, y_pred)  evs = explained_variance_score(y_test,y_pred)  print(y_test)  print(y_pred)  print(rf_regressor.feature_importances_)  

训练数据的话,使用csv,例如

有几个地方要注意,

2:shuffle, 在random包里有,numpy也有,sklearn.utils里也有,本文使用的是最后者,from sklearn.utils import shuffle

https://blog.csdn.net/huanhuan_Coder/article/details/82787923

这个sklearn的包可以是多列表,如代码所示,有意思的是,对于多个参数,他们打乱的顺序是一样的,超赞。

4:min_samples_split =1 也报错了,改成2就行了。

5:模型里的rf_regressor.feature_importances_ ,里面都是参数的权重,哪些重要,不信,可以把csv的列顺序替换一下,看看结果是不是变化了。

6:以上代码参考了https://blog.csdn.net/weixin_42039090/article/details/80640890

https://blog.csdn.net/nieson2012/article/details/51279332

显然R语言的版本更加精简,也通俗易懂。

 

https://blog.csdn.net/qq_37423198/article/details/76922207

RF的主要优点有:
1) 训练可以高度并行化,对于大数据时代的大样本训练速度有优势。
2) 由于可以随机选择决策树节点划分特征,这样在样本特征维度很高的时候,仍然能高效的训练模型。
3) 在训练后,可以给出各个特征对于输出的重要性
4) 由于采用了随机采样,训练出的模型的方差小,泛化能力强。
5) 相对于Boosting系列的Adaboost和GBDT, RF实现比较简单。
6) 对部分特征缺失不敏感。
7) 对数据集的适应能力强:既能处理离散型数据,也能处理连续型数据,数据集无需规范化
8) 在创建随机森林的时候,对generlization error使用的是无偏估计
9) 训练过程中,能够检测到feature间的互相影响
RF的主要缺点有:
1) 在某些噪音比较大的样本集上,RF模型容易陷入过拟合。
2) 取值划分比较多的特征容易对RF的决策产生更大的影响,从而影响拟合的模型的效果。

最后,再来一段权重的直方图吧

 import matplotlib.pyplot as plt  import seaborn as sns   color = sns.color_palette()  sns.set_style('darkgrid')  features_list = feature_names  feature_importance = rf_regressor.feature_importances_  sorted_idx = np.argsort(feature_importance)   plt.figure(figsize=(5, 7))  plt.barh(range(len(sorted_idx)), feature_importance[sorted_idx], align='center')  plt.yticks(range(len(sorted_idx)), features_list[sorted_idx])  plt.xlabel('Importance')  plt.title('Feature importances')  plt.draw()  plt.show() 

  

来源: https://www.cnblogs.com/marszhw/p/11330213.html

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!