1. 首页
  2. 数据库
  3. 其它
  4. AdaboostOnMNIST:这是Adaboost算法的实现它使用两个不同的弱学习器从头开始实施:决策树分类器和梯度提升分类器。 Adaboost在MNIST

AdaboostOnMNIST:这是Adaboost算法的实现它使用两个不同的弱学习器从头开始实施:决策树分类器和梯度提升分类器。 Adaboost在MNIST

上传者: 2021-02-22 15:48:35上传 ZIP文件 2.38KB 热度 41次
AdaboostOnMNIST 这是使用两个不同的弱学习者从头开始实现Adaboost算法的方法:决策树分类器和梯度提升分类器。 Adaboost在MNIST上运行以告知奇数和偶数。 经过scikit Learn模型的adaboost测试,并获得了更高的分数。 最小的训练误差为%1.8,在7次迭代中进行了梯度增强。 函数调用为adaboost(X_train,Y_train,inversions_t,Classifier_type),有两种类型的分类器,“ Gradient_Boost”和“ Decision_tree”可以放入第4个输入中。 adaboost返回一个4元组(stump,
下载地址
用户评论