资源说明:本文提出了一种新的集成分类器生成技术RotBoost,它是由Rotation Forest和AdaBoost组合而成的。 使用UCI资料库中的36个现实世界数据集进行的实验(其中采用分类树作为基础学习算法)表明,RotBoost生成的集合分类器的预测误差比Rotation Forest或AdaBoost的发生频率要低得多。相反。 同时,发现RotBoost的性能比Bagging和MultiBoost更好。 通过使用误差的偏差和方差分解来获得对所考虑的分类方法的更多了解,RotBoost可以同时减少一棵树的偏差和方差项,并且它所实现的减量远大于其他集合的减量。方法,使RotBoost在考虑的分类程序中表现最佳。 此外,与并行处理相比,RotBoost具有优于AdaBoost的潜在优势。
本源码包内暂不包含可直接显示的源代码文件,请下载源码包。