决策树(中)-集成学习、RF、AdaBoost、Boost Tree、GBDT
参考资料(要是对于本文的理解不够透彻,必须将以下博客认知阅读): 1. https://zhuanlan.zhihu.com/p/86263786 2. https://blog.csdn.net/liuy9803/article/details/80598652 3. https://blog.csdn.net/perfect1t/article/details/83684995 4. GBDT算法原理以及实例理解 (!!) 5. Adaboost算法原理分析和实例+代码(简明易懂) (!!) 6. 集成学习之Adaboost算法原理小结 (!!刘建平,大牛博客) 7. gbdt、xgb、lgb、cat面经整理——from牛客 (必须掌握) 目录 1.集成学习概念 2.Bagging 3.Random Forest(RF) 4.Boosting 5.Adaboost 6.Boosting tree(提升树) 7.GBDT 8.从偏差和方差的角度理解集成学习 一、集成学习相关知识(Ensemble learning) 1. 集成学习(Ensemble learning)是使用一系列学习器进行学习,并使用某种规则把各个学习结果进行整合,从而获得比单个学习器显著优越的泛化性能。它不是一种单独的机器学习算法,而更像是一种优化策略,其目的在于使得集成模型达到 减小方差(bagging) 、