如何理解随机森林RF
1、RF
1.1 原理
提到随机森林,就不得不提Bagging,Bagging可以简单的理解为:
放回抽样,
多数表决(分类)或简单平均(回归),
基学习器之间属于并列生成,不存在强依赖关系。
引入了随机特征选择:
1、随机选择样本(放回抽样);
随机选择特征是指在树的构建中,会从样本集的特征集合中随机选择部分特征,然后再从这个子集中选择最优的属 性用于划分
2、随机选择特征;
3、构建决策树;
4、随机森林投票(平均)。
RF通常对分类问题使用简单投票法,回归任务使用简单平均法。
1.2 优缺点
随机森林的优点较多,简单总结:
1、在数据集上表现良好,相对于其他算法有较大的优势(训练速度、预测准确度);
2、能够处理很高维的数据,并且不用特征选择,而且在训练完后,给出特征的重要性;
3、容易做成并行化方法。
RF的缺点:在噪声较大的分类或者回归问题上回过拟合。
参考:
https://blog.csdn.net/qq_28031525/article/details/70207918
来源:CSDN
作者:御剑归一
链接:https://blog.csdn.net/wj1298250240/article/details/103793003