R语言主成分分析
解决自变量之间的多重共线性和减少变量个数
根据主成分分析的原理,它一方面可以将k个不独立的指标变量通过线性变换变成k个相互独立的新变量,这是解决多重共线性问题的一个重要方法;另一方面。主成分分析可以用较少的变量取代较多的不独立的原变量,减少分析中变量的个数。概括地说,主成分分析有以下几方面的应用。
I.相关R函数以及实例
主成分分析相关的R函数:
prinpomp() 作主成分分析最重要的函数
summary() 提取主成分的信息
loadings() 显示主成分分析或因子分析中的loadings(载荷),在这里是主成分对应的各列
predict() 预测主成分的值
screeplot() 画出主成分的碎石图
biplot() 画出数据关于主成分的散点图和原坐标在主成分下的方向
例1. 肝病患者功能指标的主成分分析:
某医学院测得20例肝病患者的4项肝功能指标:SGPT(转氨酶)、肝大指数、ZnT(硫酸锌浊度)和AFP(胎甲球蛋白),分别用X1-X4表示,研究数据见以下程序,试进行主成分分析
#从sas导出数据存为csv格式,输入数据
princomp1 <- read.csv("princomp1.csv",header=T)
#生成相关矩阵 p513
cor(princomp1)
#作主成分分析
princomp1.pr <- princomp(princomp1,cor = TRUE)
#或者用 princomp1.pr <- princomp(~X1+X2+X3+X4,data=princomp1,cor=TRUE)
#显示分析结果,loadings(载荷)
summary(princomp1.pr,loadings = TRUE)
##predict(princomp1.pr),显示各样本的主成分的值,数据太多不显示
#画出主成分的碎石图,主成分特征值的大小构成的陡坡图
screeplot(princomp1.pr,type = "lines")
#画出数据关于前两个主成分的散点图和原坐标在主成分下的方向(比如,倾向第一主成分,可选择4、9、8等编号。箭头代表xi在主成分下的方向)
biplot(princomp1.pr)
summary()列出结果的重要信息,Standard deviation行表示的是主成分的标准差,也就是特征值λ1,λ2,λ3,λ4的开方
Proportion of Variance行表示的是方差的贡献率
Cumulative Proportion行表示的是方差的累计贡献率
前两个特征值均大于1,第3个接近于1,第4个远小于1。特征值越大,它所对应的主成分变量包含的信息就越多,第1-4个主成分的贡献率分别为42.95%、27.33%、24.53%、5.17%,前3个主成分就包含了原来4个指标的94.82的信息,即能够解释94.82%的方差。因此,确定主成分的个数为3比较合理
loadings=TRUE,则结果列出了loadings(载荷)的内容,它实际上是主成分对于原始变量X1,X2,X3,X4的系数。也是特征值对应的特征向量,它们是线性无关的单位向量。第1列表示第1主成分z1的得分系数,依次类推。据此可以写出由标准化变量所表达的各主成分的关系式,即:
Z1 = 0.700X1 +0.690X2 +0.163X4
Z2、Z3、Z4同上
由碎石图可以看出 第二个主成分之后 图线变化趋于平稳 因此可以选择前两个主成分做分析
在各主成分的表达式中,各标准化指标Xi前面的系数与该主成分所对应的特征值之平方根的乘积是该主成分与该指标之间的相关系数。系数的绝对值越大,说明该主成分受该指标的影响也越大。因此,决定第1主成分Z1大小的主要为X1和X2,即SGPT和肝大指数;决定第2主成分Z2大小的主要为X3,即ZnT;决定第3主成分Z3大小的主要为X4,即AFP;决定第4主成分大小的主要为X1和X2,但作用相反。这提示:Z1指向急性炎症;Z2指向慢性炎症;Z3指向原发性肝癌可疑;Z4贡献率很小,仅作参考,它可能指向其他肝病。
II.主成分分析的应用
除了减少自变量的个数外,主成分分析可以用来解决自变量共线性的问题。线性回归分析要求自变量是相互独立的,但是在实际应用中,经常会遇到自变量相关的问题。这时,一个好的可行的方法就是借助于主成分分析,用主成分回归来求回归系数。即先用主成分分析法计算出主成分表达式和主成分得分变量,而主成分得分变量相互独立,因此可以将因变量对主成分得分变量回归,然后将主成分的表达式代回回归模型中,即可得到标准化自变量与因变量的回归模型,最后将标准化自变量转为原始自变量。
例2. 影响女大学生肺活量因素的多元回归分析
某学校20名一年级大学生体重(公斤)、胸围(厘米)、肩宽(厘米)及肺活量(升)实测值如下表所示,试对影响女大学生肺活量的有关因素作多元回归分析
1) 模型共线性诊断
princomp2 <- read.csv("princomp2.csv",header=T)
#作线性回归
lm.sol<-lm(y~x1+x2+x3, data=princomp2)
summary(lm.sol)
由summary结果,按三个变量得到回归方程: Y=-4.71 + 0.06X1 +0.036X2 +0.049X3
从参数估计值t检验的结果可以看出:变量x1和x2的参数估计值显著性均<0.05,说明参数估计值与0有显著的区别,而x3的参数估计值与0无显著的区别。
共线性诊断
#共线性诊断
#利用kappa函数,计算自变量矩阵的条件数;从实际经验的角度,一般若条件数<100,则认为多重共线性的程度很小,若100<=条件数<=1000,则认为存在中等程度的多重共线性,若条件数>1000,则认为存在严重的多重共线性.
x <- cor(princomp2)
kappa(x, exact=T)
#可以计算X矩阵的秩qr(X)$rank,如果不是满秩的,说明其中有Xi可以用其他的X的线性组合表示
qr(princomp2)$rank
#相关系数矩阵
cor(princomp2[,-c(0,4)])
#特征根法。根据矩阵性质,矩阵的行列式等于其特征根的连乘积。因而当行列式|X′X|→0,矩阵X′X至少有一个特征根近似等于零。说明解释变量之间存在多重共线性。
#输出的内容分别为特征值和相对应的特征向量,矩阵中的每一列都为特征向量。
x <- cbind(rep(1,length(princomp2[,1])),princomp2[,-c(0,4)])
x <- as.matrix(x) #以1,x1,x2,x3为四列的矩阵
eigen(t(x)%*%x) #x的转置*x 的特征向量
#条件指数法(Conditional Index,CI)。条件指数CI=(λmax/λmin)0.5,其中λmax,λmin分别是矩阵XX′的最大和最小特征根。条件指数度量了矩阵XX′的特征根散布程度,可以用来判断多重共线性是否存在以及多重共线性的严重程度。一般认为,当0<CI<10 时,X 没有多重共线性;当10<CI<100 时, X存在较强的多重共线性;当CI>100 时,存在严重的多重共线性。
#条件判别法,计算的条件指数值
CI <- eigen(t(x)%*%x)$values[1]/eigen(t(x)%*%x)$value[3] #value指eigen()函数的特征值value的第一个值
CI
#方差膨胀因子(Variance Inflation Factors,VIF)。自变量j X 的方差扩大因子VIFj=Cjj=1/(1-Rj2),j=1,2,…p,其中C j j为(X ' X)???1中第 j个对角元素, R j 2为Xj为因变量,其余 p ???1个自变量为自变量的回归可决系数,也即复相关系数。
#方差膨胀因子法.若变量膨胀因子都很大,则表明存在严重的多重共线性
library(car)
vif(lm.sol)
观察特征向量,x2和x3出现0.91981490和0.999931723,这个结果接近1。如果一个模型中同时包含这两个变量,得到的结果就会很不稳定,甚至产生误导
2) 对原始变量主成分分析
#基本统计量,包括mean,sd,相关系数矩阵,相关系数矩阵的特征值特征向量
mean <- c( mean(princomp2$x1),mean(princomp2$x2),mean(princomp2$x3))
sd <- c(sd(princomp2$x1),sd(princomp2$x2),sd(princomp2$x3))
rbind(mean,sd)
cor(princomp2[,-c(0,4)]) #相关系数矩阵,设置[]就只取x1,x2,x3三列,不取y
eigen(cor(princomp2[,-c(0,4)])) #求princomp2[]的特征值和特征向量
#作主成分分析
princomp2.pr<-princomp(~x1+x2+x3, data=princomp2, cor=T)
summary(princomp2.pr, loadings=TRUE)
#predict(princomp2.pr) 各样本的主成分的值,结果篇幅太长,略
从特征值和解释比例来看,第一主成分和第二主成分的特征值很大,能够解释的因变量变动已经达到0.8827,因此,我们可以选择前两个主成分来表示3个指标的信息。用原始变量表达前两个主成分的式子如下:
Z1=-0.585003X1-0.447445X2-0.676435X3
Z2=0.55658X1-0.828133X2+0.066442X3
其中Xi为标准指标变量,Xi = (xi-x均)/si, i=1,2,3
3) 对主成分得分变量进行回归分析
# 预测样本主成分, 并作主成分分析
pre<-predict(princomp2.pr)
princomp2$z1<-pre[,1]
princomp2$z2<-pre[,2]
princomp2$z3<-pre[,3]
lm.sol<-lm(y~z1+z2+z3, data=princomp2)
summary(lm.sol)
#write.csv(princomp2,"princomp2_test.csv")
模型检验的结果F值为21.23,显著性P<0.001,拒绝原假设,说明主成分得分变量z1和z2均与因变量y具有显著的相关关系
截距项和β1的t检验显著性p值均<0.0001,说明主成分z1与y显著相关,而β2的显著性没有意义(p=0.942),则因变量y在主成分上的线性回归方程式:
Y=2.76300-0.309737 * z1
=2.76300-0.309737 * (-0.585003 * X1-0.447445 * X2-0.676435 * X3)
=2.76300 + 0.1811971 * X1 +0.1385903 * X2 + 0.2095169 * X3
#以x1,x2,x3为三列组成的矩阵A
A <- cbind(princomp2$x1,princomp2$x2,princomp2$x3)
#取x1,x2,x3和X1,X2,X3
x1 <- A[,1]
x2 <- A[,2]
x3 <- A[,3]
X1 <- (x1 - mean(princomp2$x1)) / sd(princomp2$x1)
X2 <- (x2 - mean(princomp2$x2)) / sd(princomp2$x2)
X3 <- (x3 - mean(princomp2$x3)) / sd(princomp2$x3)
#建模算得的结果
Y <- 2.76300 + 0.1811971 * X1 +0.1385903 * X2 + 0.2095169 * X3
Y #去除β2影响的回归方程
Z <- -4.128216 + 0.04583787 * x1 + 0.02943588 * x2 + 0.06849709 * x3
Z #换算成用x1,x2,x3表示的式子
I <- -4.27585990 + 0.04774617 * x1 + 0.02930425 * x2 + 0.07038718 * x3
I #编写计算系数的函数结果,没有去除β2影响的回归方程
X1=(x1-49.510)/3.953
X2=(x2-78.790000)/4.708212
X3=(x3-33.615000)/3.058771
将标准自变量还原为原始自变量,X1,X2,X3用x1,x2,x3表示,得到因变量y对原始自变量的回归模型:
Y = 2.76300 + 0.1811971 * (x1-49.510)/3.953 + 0.1385903 * (x2-78.790000)/4.708212 + 0.2095169 * (x3-33.615000)/3.058771
= 2.76300 + 0.04583787 * (x1-49.51000) + 0.02943588 * (x2-78.79000) + 0.06849709 * (x3-33.615000)
即: Y= -4.128216 + 0.04583787 * x1 + 0.02943588 * x2 + 0.06849709 * x3
上述例子是先求summary(lm()),根据p值得到主成分,去除其他zi,得到回归方程
我们还可以先确定主成分,只将主成分的预测值存放在数据框中,lm()函数中y~只对主成分,直接得到回归方程
下面是这种方法回归方程系数的计算函数:
编写计算系数的函数
#这里得到回归方程的系数,是没有去除z2(β2)影响的,在上面用I表示
#作变换,得到原坐标下的关系表达式
beta<-coef(lm.sol); A<-loadings(princomp2.pr)
x.bar<-princomp2.pr$center; x.sd<-princomp2.pr$scale
coef<-(beta[2]*A[,1]+ beta[3]*A[,2])/x.sd
beta0 <- beta[1]- sum(x.bar * coef)
c(beta0, coef)
* 回归方程为: Y = -4.27585990 + 0.04774617 x1 + 0.02930425 * x2 + 0.07038718 * x3 **
write.csv(princomp1,"write_princomp1.csv")
write.csv(princomp2,"write_princomp2.csv")
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
“最近复购率一直在下降,我们的营销力度不小啊,为什么用户还是走了?” “是不是广告投放的用户质量不高?还是我们的产品问题 ...
2025-02-21以下文章来源于数有道 ,作者数据星爷 SQL查询是数据分析工作的基础,也是CDA数据分析师一级的核心考点,人工智能时代,AI能为 ...
2025-02-19在当今这个数据驱动的时代,几乎每一个业务决策都离不开对数据的深入分析。而其中,指标波动归因分析更是至关重要的一环。无论是 ...
2025-02-18当数据开始说谎:那些年我们交过的学费 你有没有经历过这样的场景?熬了三个通宵做的数据分析报告,在会议上被老板一句"这数据靠 ...
2025-02-17数据分析作为一门跨学科领域,融合了统计学、编程、业务理解和可视化技术。无论是初学者还是有一定经验的从业者,系统化的学习路 ...
2025-02-17挖掘用户价值本质是让企业从‘赚今天的钱’升级为‘赚未来的钱’,同时让用户从‘被推销’变为‘被满足’。询问deepseek关于挖 ...
2025-02-17近来deepseek爆火,看看deepseek能否帮我们快速实现数据看板实时更新。 可以看出这对不知道怎么动手的小白来说是相当友好的, ...
2025-02-14一秒精通 Deepseek,不用找教程,不用买资料,更不用报一堆垃圾课程,所有这么去做的,都是舍近求远,因为你忽略了 deepseek 的 ...
2025-02-12自学 Python 的关键在于高效规划 + 实践驱动。以下是一份适合零基础快速入门的自学路径,结合资源推荐和实用技巧: 一、快速入 ...
2025-02-12“我们的利润率上升了,但销售额却没变,这是为什么?” “某个业务的市场份额在下滑,到底是什么原因?” “公司整体业绩 ...
2025-02-08活动介绍 为了助力大家在数据分析领域不断精进技能,我们特别举办本期打卡活动。在这里,你可以充分利用碎片化时间在线学习,让 ...
2025-02-071、闺女,醒醒,媒人把相亲的带来了。 我。。。。。。。 2、前年春节相亲相了40个, 去年春节相亲50个, 祖宗,今年你想相多少个 ...
2025-02-06在数据科学的广阔领域中,统计分析与数据挖掘占据了重要位置。尽管它们常常被视为有关联的领域,但两者在理论基础、目标、方法及 ...
2025-02-05在数据分析的世界里,“对比”是一种简单且有效的方法。这就像两个女孩子穿同一款式的衣服,效果不一样。 很多人都听过“货比三 ...
2025-02-05当我们只有非常少量的已标记数据,同时有大量未标记数据点时,可以使用半监督学习算法来处理。在sklearn中,基于图算法的半监督 ...
2025-02-05考虑一种棘手的情况:训练数据中大部分样本没有标签。此时,我们可以考虑使用半监督学习方法来处理。半监督学习能够利用这些额 ...
2025-02-04一、数学函数 1、取整 =INT(数字) 2、求余数 =MOD(除数,被除数) 3、四舍五入 =ROUND(数字,保留小数位数) 4、取绝对值 =AB ...
2025-02-03作者:CDA持证人 余治国 一般各平台出薪资报告,都会哀嚎遍野。举个例子,去年某招聘平台发布《中国女性职场现状调查报告》, ...
2025-02-02真正的数据分析大神是什么样的呢?有人认为他们能轻松驾驭各种分析工具,能够从海量数据中找到潜在关联,或者一眼识别报告中的数 ...
2025-02-01现今社会,“转行”似乎成无数职场人无法回避的话题。但行业就像座围城:外行人看光鲜,内行人看心酸。数据分析这个行业,近几年 ...
2025-01-31