2021-01-23
阅读量:
1175
Adaboost中的learning_rate参数不明白
最优化的算法是逐次逼近最优值的,每次调整一小步,逐步趋向于最优解。但是每一次更新参数利用多少误差,就需要通过一个参数来控制,这个参数就是学习率,也称为步长,控制每次权重调整的比例,官方解释为Learning rate shrinks the contribution of each classifier by learning_rate






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论