集成学习

集成学习根据各个弱分类器之间有无依赖关系,分为Boosting和Bagging两大流派:

GBDT, lightGBM和XGBoost的区别

参考文献

Adaboost 算法
浅谈 GBDT
史上最详细的XGBoost实战
机器学习---xgboost与lightgbm效果比较(2)
常用的集成学习方法
机器学习(八)——集成学习
集成学习基本原理:Adaboost,Bagging和Stacking
TensorFlow 教程 #05 - 集成学习
模型融合方法总结
模型融合的主要方法
Ensemble Learning-模型融合-Python实现
关于多分类器融合算法
集成学习算法(Ensemble Method)浅析
集成学习(ensemble learning )该如何入门?
集成学习总结 & Stacking方法详解
Kaggle机器学习之模型融合(stacking)心得
Stacking Learning在分类问题中的使用