2018-11-22
阅读量:
1049
决策树中的CART是什么?
分类和回归树(CART)
CART是最成熟的机器学习技术之一。在非技术术语中,CART算法通过重复找到最佳预测变量来将数据分成两个子集。子集比分割前更好地划分目标结果。修剪是一种与分类和回归树相关的技术。
我不打算详细介绍最佳预测变量或更好的分区的含义。相反,我将讨论对该基本大纲的两个改进:修剪和提前停止。有时这些被简单地称为后修剪和预修剪。顾名思义,预修剪或早期停止包括在完成对训练集的分类之前停止树,而后修剪指的是在树完成后修剪树。我更喜欢通过早期停止和修剪来更清楚地区分这些术语。
修剪或后修剪
顾名思义,修剪涉及砍伐树木。在树木建成之后(并且在没有提到下面讨论的早期停止)的情况下,它可能会过度装配。CART算法将重复地将数据分成更小和更小的子集,直到那些最终子集在结果变量方面是同质的。实际上,这通常意味着最终的子集(称为树的叶子)每个只包含一个或几个数据点。树已经准确地学习了数据,但是可能无法很好地预测出略微不同的新数据点。
0.0000
0
0
关注作者
收藏
评论(0)
发表评论
暂无数据
推荐帖子
0条评论
0条评论
1条评论