2021-01-23
阅读量:
1065
Adaboost中的learning_rate参数不明白
最优化的算法是逐次逼近最优值的,每次调整一小步,逐步趋向于最优解。但是每一次更新参数利用多少误差,就需要通过一个参数来控制,这个参数就是学习率,也称为步长,控制每次权重调整的比例,官方解释为Learning rate shrinks the contribution of each classifier by learning_rate
70.5882
1
0
关注作者
收藏
评论(0)
发表评论
暂无数据
推荐帖子
0条评论
0条评论
0条评论