热线电话:13121318867

登录
2021-01-23 阅读量: 1065
Adaboost中的learning_rate参数不明白

image.png

最优化的算法是逐次逼近最优值的,每次调整一小步,逐步趋向于最优解。但是每一次更新参数利用多少误差,就需要通过一个参数来控制,这个参数就是学习率,也称为步长,控制每次权重调整的比例,官方解释为Learning rate shrinks the contribution of each classifier by learning_rate

70.5882
0
关注作者
收藏
评论(0)

发表评论

暂无数据