如何理解随机森林RF_随机性的理解

雨燕双飞 提交于 2020-02-05 04:29:59

如何理解随机森林RF

1、RF
1.1 原理
  提到随机森林,就不得不提Bagging,Bagging可以简单的理解为:
  放回抽样,
  多数表决(分类)或简单平均(回归),
基学习器之间属于并列生成,不存在强依赖关系。
引入了随机特征选择:
1、随机选择样本(放回抽样);
随机选择特征是指在树的构建中,会从样本集的特征集合中随机选择部分特征,然后再从这个子集中选择最优的属 性用于划分

2、随机选择特征;
3、构建决策树;
4、随机森林投票(平均)。
RF通常对分类问题使用简单投票法,回归任务使用简单平均法。

1.2 优缺点
  随机森林的优点较多,简单总结:
  1、在数据集上表现良好,相对于其他算法有较大的优势(训练速度、预测准确度);
  2、能够处理很高维的数据,并且不用特征选择,而且在训练完后,给出特征的重要性
  3、容易做成并行化方法。
  
  RF的缺点:在噪声较大的分类或者回归问题上回过拟合。
  参考:
  https://blog.csdn.net/qq_28031525/article/details/70207918

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!