我是R语言小白带你建模之adaboost建模
今天更新我用我蹩脚的R技能写的一个adaboost建模的过程,代码有参考别人的代码再根据自己的思路做了更改。代码一部分来自书籍《实用机器学习》,我个人特别喜欢这本书
至于adaboost,大家自动移步谷歌,我跟一个人说我喜欢百度,他误以为我喜欢百度一个公司,所以我决定改口说去谷歌,毕竟谷歌没广告。
先说,模型的数据是我实现已经缺失值填补,以及分组好的数据,所以代码中没有预处理的部分,只有一些简单变量的转化。
代码分为三部分:
1、加载包以及一个简单的变量形式转化,以及训练集和测试的分区,还有初步拟合一个简单的adaboost。
2、设置深度以及树的棵树,希望是,能通过输出的模型评估指标,找到一个复杂度低,但是模型效果相对较好的adaboost。
3、检查你取的最优的adaboost的模型的泛化能力,这里是通过把数据集变成十等份,用刚才拟合出来的adaboost模型计算其ks、auc、正确率啊,看时候会不会过拟合造成在其他数据集中的效果下降。
这可能是我这么久以来这么正经的写R代码,所以我的注释特别多,不像我的sas代码,基本不写注释。
1
rm(list=ls())
# 清空缓存数据
rpart.installed <- 'rpart' %in% rownames(installed.packages())
if (rpart.installed) {
print("the rpart package is already installed, let's load it...")
}else {
print("let's install the rpart package first...")
install.packages('rpart', dependencies=T)
}
#检查是否存在rpart包,若没有就加载
library('rpart')
partykit.installed <- 'partykit' %in% rownames(installed.packages())
if (partykit.installed) {
print("the partykit package is already installed, let's load it...")
}else {
print("let's install the partykit package first...")
install.packages('partykit', dependencies=T)
}
#检查是否存在partykit包,若没有就加载
library('grid')
library('partykit')
adabag.installed <- 'adabag' %in% rownames(installed.packages())
if (adabag.installed) {
print("the adabag package is already installed, let's load it...")
}else {
print("let's install the adabag package first...")
install.packages('adabag', dependencies=T)
}
library('adabag')
library('rpart')
library('gplots')
library('ROCR')
# 加载在代码中需要使用的包
x<-read.csv("alldata_zuhe.csv",header=T);
#读目标数据,读取数据之前,手动加载路径
D<-as.data.frame(x)
#把x数据转成数据框
D$APPL_STATUS_1<-as.factor(D$APPL_STATUS_1)
# 把目标变量转成因子格式,以防模型拟合的时候识别为连续变量建立回归树
# colnames(D)[ncol(D)] <- 'APPL_STATUS_1'
D<-D[-which(names(D) %in% c('APPL_ID'))]
# 剔除掉一些不用进入模型的变量
train_ratio <- 0.7
# 设置训练集以及测试集的比例,这里设置的是3:7
n_total <- nrow(D)
# 取出原样本数据集的数量
n_train <- round(train_ratio * n_total)
# 计算出训练集的数量
n_test <- n_total - n_train
# 计算出测试集的数量
set.seed(42)
# 设置抽取种子,种子的意义在于当取同个种子的时候,抽取的样本一样。
list_train <- sample(n_total, n_train)
# 利用sample函数取数测试集的样本的行数
D_train <- D[list_train,]
# 从原样本中取出训练数据
D_test <- D[-list_train,]
# 从原样本中取出测试集数据
y_train <- D_train$APPL_STATUS_1
# 取数训练集中的因变量,待会对模型的评估需要用到
y_test <- D_test$APPL_STATUS_1
# 取数测试集中的因变量,待会对模型的评估需要用到
maxdepth <- 3
# 设置树的深度,利用rpart.control带着深度的向量,也可以直接写上深度,
# 设置在提升树过程中的树的深度
mfinal <- 10
# 设置树的数量
M_AdaBoost1 <- boosting(APPL_STATUS_1~., data = D_train,
boos = FALSE, mfinal = mfinal, coeflearn = 'Breiman',
control=rpart.control(maxdepth=maxdepth))
summary(M_AdaBoost1)
# 输出对象的M_AdaBoost1的信息,大概是种了几棵树,几个客户预测错了之类的。
M_AdaBoost1$trees
# 看下你种下的十棵树的大致情况。
M_AdaBoost1$trees[[1]]
# 检查第一颗树的情况,你检查也是看他合不合理,尽管不合理,只要效果好,
# 你还是会用,毕竟又不是只有一棵树。
M_AdaBoost1$weights
# 检查每棵树的权重
M_AdaBoost1$importance
# 看下变量的重要性。可以利用这个方法去筛选变量。
errorevol(M_AdaBoost1, D_test)
# 看下误差的演变
y_test_pred_AdaBoost1 <- predict(M_AdaBoost1, D_test)
# 使用模型预测测试集的效果。这里输出有概率也有预测分类,
# y_test_pred_AdaBoost1是个list的对象,跟拒想算的模型评估量选择计算。
accuracy_test_AdaBoost1 <- sum(y_test==y_test_pred_AdaBoost1$class) / n_test
# 计算正确率,即使用预测客户状态
msg <- paste0('accuracy_test_AdaBoost1 = ', accuracy_test_AdaBoost1)
print(msg)
# 输出正确率的结果
y_train_pred_AdaBoost1 <- predict(M_AdaBoost1, D_train)
# 使用模型预测训练集的效果
accuracy_train_AdaBoost1 <- sum(y_train==y_train_pred_AdaBoost1$class) / n_train
msg <- paste0('accuracy_train_AdaBoost1 = ', accuracy_train_AdaBoost1)
print(msg)
# 计算正确率之后,输出正确率的结果。
2
# 这个代码是为了寻找最优的种树的数目以及深度,因为了防止过拟合以及节省时间,这里的深度我建议设置的是2:5
# 树的数目大概是10-50课,数可能多了,但是模型复杂度也提升了,泛化能力就低了。
library(plyr)
# 加载需要的包
total1<-data.frame()
# 建立一个空表,待会这个表是用来装结果的
m <- seq(5, 30, by = 5)
# 设置树的数量,我这里设置的是从5棵树开始,到30棵树,以5为单位。
for (j in m) {
# 循环树的数量
for(i in 3:6){
# 这里设置深度循环的数字,我设置的3到6
maxdepth <- i
mfinal <- j
M_AdaBoost1 <- boosting(APPL_STATUS_1~., data = D_train,boos = FALSE, mfinal = mfinal, coeflearn = 'Breiman',control=rpart.control(maxdepth=maxdepth))
# 设置参数之后生成模型
y_test_pred_AdaBoost1 <- predict(M_AdaBoost1, D_test)
# 利用生成的模型预测测试集
accuracy_test <- sum(D_test$APPL_STATUS_1==y_test_pred_AdaBoost1$class) / length(y_test_pred_AdaBoost1$class)
# 计算正确率
pred<-prediction(y_test_pred_AdaBoost1$prob[,2],y_test)
perf<-performance(pred,'tpr','fpr')
auc1 <-performance(pred,'auc')@y.values
#计算AUC值
v = as.vector(unlist(auc1[1]))
# 因为AUC值不是一个向量的格式,但是我后续需要组成数据框,所以在这里转成向量了
ks1 <- max(attr(perf,'y.values')[[1]]-attr(perf,'x.values')[[1]])
#计算KS
total<-data.frame(auc=v,ks=ks1,accuracy=accuracy_test,maxdepth=i,mfinal=j)
# 将多个模型评估指标合并变成数据框
total1<-rbind(total1,total)
# 纵向合并
print(paste("adaboost-maxdepth:", i))
print(paste("adaboost-mfinal:", j))
# 打印循环哪一步,以防报错的时候可以直达是哪一步错误,以及跟踪进度跑到那里了
}
}
结果跑出看total1这个数据集,图:
第一列是auc,依次是ks,正确率,设置的树的深度,以及种的棵树。可以根据这张表选出你认为好的深度以及树的棵树
3
M_AdaBoost1 <- boosting(APPL_STATUS_1~., data = D_train,
boos = FALSE, mfinal = 15, coeflearn = 'Breiman',
control=rpart.control(maxdepth=3))
# 在刚才的adaboost取最优参数取出最优的树以及深度之后,在这里跑出模型之后,用在其他模型上面
# 因为集成模型大部分时候都是一个类似黑箱子的过程,你是知道几棵树,深度多少,但是实际上,你并不能
# 像逻辑回归一样一颗一颗树去看他合不合理,所以这时候就需要就检查他对其他数据是不是也可行,且效果
# 不会下降太多
library(plyr)
# 加载需要的包
CVgroup <- function(k, datasize, seed) {
cvlist <- list()
set.seed(seed)
n <- rep(1:k, ceiling(datasize/k))[1:datasize]
#将数据分成K份,并生成的完整数据集n
temp <- sample(n, datasize)
#把n打乱
x <- 1:k
dataseq <- 1:datasize
cvlist <- lapply(x, function(x) dataseq[temp==x])
#dataseq中随机生成10个随机有序数据列
return(cvlist)
}
cvlist<-CVgroup(10, 10513, 957445)
# 这个过程第二个参数输入的是你的数据集的总数,第三个是seed种子,第一个是划分成几份。
# cvlist是一个list,包含十个样本,每个样本的数量差不多
data <- D
# 将的原样本数据集赋给data
total1 <- data.frame()
#建立一个空表存储预测结果
for (i in 1:10) {
# 循环上面那个代码分好的是个数据集
print(i)
test <- data[cvlist[[i]],]
# 取出第i个数据集
y_test<-test$APPL_STATUS_1
# 取出第i个数据集中的因变量
y_test_pred_rf1 <- predict(M_AdaBoost1, test)
# 预测第i个数据集
accuracy_test <- sum(test$APPL_STATUS_1==y_test_pred_rf1$class) / length(y_test_pred_rf1$class)
# 计算第i个数据集的正确率
pred<-prediction(y_test_pred_rf1$prob[,2],y_test)
perf<-performance(pred,'tpr','fpr')
auc1 <- performance(pred,'auc')@y.values
v = as.vector(unlist(auc1[1]))
#计算第i个数据集的AUC值
ks1 <- max(attr(perf,'y.values')[[1]]-attr(perf,'x.values')[[1]]) #计算KS
#计算第i个数据集的ks值
total<-data.frame(auc=v,ks=ks1,accuracy=accuracy_test)
# 合并各项参数
total1<-rbind(total1,total)
# 合并每个数据集的结果
}
这个代码跑完之后看total1,图:
这就是你选出的模型,将总体数据分成十份每一份的ks以及auc,你要是觉得不可靠,可以多循环几次种子。要是觉得你选的模型不好,可以回去第二步再选一个放到第三步的代码跑。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
“用户旅程分析”概念 用户旅程图又叫做用户体验地图,它是用于描述用户在与产品或服务互动的过程中所经历的各个阶段、触点和情 ...
2025-01-22在竞争激烈的商业世界中,竞品分析对于企业的发展至关重要。今天,我们就来详细聊聊数据分析师写竞品分析的那些事儿。 一、明确 ...
2025-01-22在数据分析领域,Excel作为一种普及率极高且功能强大的工具,无疑为无数专业人士提供了便捷的解决方案。尽管Excel自带了丰富的功 ...
2025-01-17在这个瞬息万变的时代,许多人都在寻找能让他们脱颖而出的职业。而数据分析师,作为大数据和人工智能时代的热门职业,自然吸引了 ...
2025-01-14Python作为一门功能强大的编程语言,已经成为数据分析和可视化领域的重要工具。无论你是数据分析的新手,还是经验丰富的专业人士 ...
2025-01-10完全靠数据决策,真的靠谱吗? 最近几年,“数据驱动”成了商界最火的关键词之一,但靠数据就能走天下?其实不然!那些真正成功 ...
2025-01-09SparkSQL 结构化数据处理流程及原理是什么?Spark SQL 可以使用现有的Hive元存储、SerDes 和 UDF。它可以使用 JDBC/ODB ...
2025-01-09在如今这个信息爆炸的时代,数据已然成为企业的生命线。无论是科技公司还是传统行业,数据分析正在深刻地影响着商业决策以及未来 ...
2025-01-08“数据为王”相信大家都听说过。当前,数据信息不再仅仅是传递的媒介,它成为了驱动经济发展的新燃料。对于企业而言,数据指标体 ...
2025-01-07在职场中,当你遇到问题的时候,如果感到无从下手,或者抓不到重点,可能是因为你掌握的思维模型不够多。 一个好用的思维模型, ...
2025-01-06在现代企业中,数据分析师扮演着至关重要的角色。每天都有大量数据涌入,从社交媒体到交易平台,数据以空前的速度和规模生成。面 ...
2025-01-06在职场中,许多言辞并非表面意思那么简单,有时需要听懂背后的“潜台词”。尤其在数据分析的领域里,掌握常用术语就像掌握一门新 ...
2025-01-04在当今信息化社会,数据分析已成为各行各业的核心驱动力。它不仅仅是对数字进行整理与计算,而是在数据的海洋中探寻规律,从而指 ...
2025-01-03又到一年年终时,各位打工人也迎来了展示成果的关键时刻 —— 年终述职。一份出色的年终述职报告,不仅能全面呈现你的工作价值, ...
2025-01-03在竞争激烈的商业世界中,竞品分析对于企业的发展至关重要。今天,我们就来详细聊聊数据分析师写竞品分析的那些事儿。 一、明确 ...
2025-01-03在数据分析的江湖里,有两个阵营总是争论不休。一派信奉“大即是美”,认为数据越多越好;另一派坚守“小而精”,力挺质量胜于规 ...
2025-01-02数据分析是一个复杂且多维度的过程,从数据收集到分析结果应用,每一步都是对信息的提炼与升华。可视化分析结果,以图表的形式展 ...
2025-01-02在当今的数字化时代,数据分析师扮演着一个至关重要的角色。他们如同现代企业的“解密专家”,通过解析数据为企业提供决策支持。 ...
2025-01-02数据分析报告至关重要 一份高质量的数据分析报告不仅能够揭示数据背后的真相,还能为企业决策者提供有价值的洞察和建议。 年薪 ...
2024-12-31数据分析,听起来好像是技术大咖的专属技能,但其实是一项人人都能学会的职场硬核能力!今天,我们来聊聊数据分析的核心流程,拆 ...
2024-12-31