京公网安备 11010802034615号
经营许可证编号:京B2-20210330
R语言实用小技巧
这篇文章介绍的是我平时写程序遇到的各种小问题,以及解决他们的小技巧
1.R语言读取EXCEL
用R语言读取EXCEL时,可以使用readxl包的read_excel函数,不要使用xlsx这个包,因为xlsx它要加载JAVA,很麻烦,而使用readxl不需要加载JAVA。
2.如何在R中构造一个hash函数
这在R中或许有许多包能够实现,但是,其实我们自己来实现也是很简单的,要知道environment的原理也是一个hash函数,我们只需要利用environment,来负责存储我们所需要的映射列表就可以了。接下来我们可以利用digest包的散列函数digest(),这个函数可以将任意的R对象映射为一个md5值,或者sha1等,他的md5值就是我们所需要的key,以下是使用例子:
有如下这样的数据
> df<-data.frame(x=1:4,y=2:5,z=3:6,k=4:7)
> df
x y z k
1 1 2 3 4
2 2 3 4 5
3 3 4 5 6
4 4 5 6 7
假设我想将x,y映射到z,将y,z映射为k,先定义两个函数,一个是SetKeyValue,负责设置key,value对,第二个是GetValue,输入一个key,返回key对应的value。
library(digest)
SetKeyValue<-function(envir,key,value){
envir[[digest(key)]]<-value
return(envir)
}
GetValue<-function(envir,key){
return(envir[[digest(key)]])
}
hash<-new.env()
for(i in 1:nrow(df)){
hash<-SetKeyValue(hash,df[i,1:2],df[i,3])
hash<-SetKeyValue(hash,df[i,2:3],df[i,4])
}
这样我们就得到了一个由environment构造的hash函数了,我们可以这样去得到值:
> GetValue(hash,df[1,1:2]) #得到当x=1 y=2时的z值
[1] 3
当然,如果想要更快的速度,可以使用fastdigest这个包,里面的散列函数比digest包要快,只需将digest()替换成fastdigest()就可以了。
3.如何用最快最简单的方法加快R的执行速度?
答案是使用compiler包,这个包的作用就是将R代码编译成字节码,这在很多情况下都能加快运行的速度,当然也会有一些时候作用没有那么大,使用非常简单,以下是一个使用例子:
> library(microbenchmark)
> library(compiler)
> f1<-function(){
+ x=1:100
+ for(i in 1:100){
+ x[i]=x[i]+1
+ }
+ }
> f2<-function(){
+ x=1:100
+ x+1
+ }
> f3<-cmpfun(f1)
> f4<-cmpfun(f2)
> microbenchmark(
+ f1(),
+ f2(),
+ f3(),
+ f4()
+ )
Unit: nanoseconds
expr min lq mean median uq max neval cld
f1() 170077 175453 178277.64 177652 179363 227746 100 c
f2() 978 1467 2028.94 1956 2444 5865 100 a
f3() 11730 12219 12873.79 12708 13196 20039 100 b
f4() 978 1466 1564.65 1467 1955 2933 100 a
可以看到编译后的f3,f4跟编译前的f1,f2,快了将近2倍到10倍,这么简单就能提升运行速度,何乐而不为呢?
我写的一个小代码,可以批量地把环境变量中所有的函数都编译一次:
funlist<-c(lsf.str())
for(f in funlist){
assign(f,cmpfun(get(f)))
}
如何想要更快,可以参考Windows使用OpenBLAS加速R语言计算速度
4.如何读取一个文件夹所有的文件?
我们可以利用list.files进行匹配,通过其中参数pattern可以填写正则表达式,用来匹配文件夹下满足条件的文件名。然后再利用lapply来导入文件。
filenames <- list.files("C:/Users/qj/Desktop/demo_data/", pattern = ".txt")
datalist <- lapply(filenames, function(name) {
read.table(paste0("C:/Users/qj/Desktop/demo_data/", name),sep=',',header = T)
})
5.如何把data.frame按照行来对应生成列表
> set.seed(1)
> df <- data.frame(i=3:1, y = runif(3))
> df
i y
1 3 0.2655087
2 2 0.3721239
3 1 0.5728534
我想把这个data.frame变成一个list 并且i要与list中的序号对应。
解决方法如下:
> i=df$i
> df=df[,2]
> dflist<-split(df,i)
> names(dflist)<-NULL
> dflist
[[1]]
[1] 0.5728534
[[2]]
[1] 0.3721239
[[3]]
[1] 0.2655087
6.如何标记每个组别中出现的次数,他们出现的顺序。
有这么个数据:
> df=data.frame(group=c(1,1,2,2,3,3,3))
> df
group
1 1
2 1
3 2
4 2
5 3
6 3
7 3
现在想添加一列,标记的id列,让它变成:
group id
1: 1 1
2: 1 2
3: 2 1
4: 2 2
5: 3 1
6: 3 2
7: 3 3
可以利用data.table实现:
> dt<-data.table(df)
> dt[,id:=1:.N,by=group]
> dt
group id
1: 1 1
2: 1 2
3: 2 1
4: 2 2
5: 3 1
6: 3 2
7: 3 3
7.R语言读取SPSS格式文件
可以使用library(memisc)这个包,虽然foreign也能做到,但是有的时候格式会很混乱,而memisc就可以完美读取。
8.R语言for循环的小贴士
看一个例子,这个例子是一个简单的for循环,它在大部分情况下是没有任何问题的。
n=nrow(x)
for(i in 1:n){
x[i]
}
但是如果当x是一个空值时,这就会出问题了,当x是空值时,我们并不希望这个for循环会执行,但是在这里n=0,那么i in 1:0 就会产生1和0,这就会导致出现各种各样的错误,而且这些错误并不固定,它会随着你的for循环里面的内容改变而改变,从而很难定位bug的所在。一个解决的方法是,我们可以使用seq.int(length.out = n)循环来代替1:n
n=nrow(x)
for(i in seq.int(length.out = n)){
x[i]
}
这样当n=0的时候,这个循环就不会执行了。
9.使用foreach包并行计算时看到里面print的方法
在linux的时候,我们可以在makeCluster上加上outfile="" 使用""就会默认输出到控制台,不过这个功能在windows好像不能用,在windows的时候建议输出到文件里,outfile="d:/log.txt",这样就可以了。
library(parallel)
library(foreach)
library(doParallel)
cl<-makeCluster(2,outfile="d:/log.txt") #work for windows
cl<-makeCluster(2,outfile="") #work for linux
registerDoParallel(cl)
x <- foreach(i=1:100,.combine = rbind,.inorder = F) %dopar% {
print(i)
sqrt(i)
}
stopCluster(cl)
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
CDA中国官网是全国统一的数据分析师认证报名网站,由认证考试委员会与持证人会员、企业会员以及行业知名第三方机构共同合作,致 ...
2025-12-26在数字化转型浪潮下,审计行业正经历从“传统手工审计”向“大数据智能审计”的深刻变革。教育部发布的《大数据与审计专业教学标 ...
2025-12-26统计学作为数学的重要分支,是连接数据与决策的桥梁。随着数据规模的爆炸式增长和复杂问题的涌现,传统统计方法已难以应对高维、 ...
2025-12-26数字化浪潮席卷全球,数据已成为企业核心生产要素,“用数据说话、用数据决策”成为企业生存与发展的核心逻辑。在这一背景下,CD ...
2025-12-26箱线图(Box Plot)作为数据分布可视化的核心工具,凭借简洁的结构直观呈现数据的中位数、四分位数、异常值等关键信息,广泛应用 ...
2025-12-25在数据驱动决策的时代,基于历史数据进行精准预测已成为企业核心需求——无论是预测未来销售额、客户流失概率,还是产品需求趋势 ...
2025-12-25在数据驱动业务的实践中,CDA(Certified Data Analyst)数据分析师的核心工作,本质上是通过“指标”这一数据语言,解读业务现 ...
2025-12-25在金融行业的数字化转型进程中,SQL作为数据处理与分析的核心工具,贯穿于零售银行、证券交易、保险理赔、支付结算等全业务链条 ...
2025-12-24在数据分析领域,假设检验是验证“数据差异是否显著”的核心工具,而独立样本t检验与卡方检验则是其中最常用的两种方法。很多初 ...
2025-12-24在企业数字化转型的深水区,数据已成为核心生产要素,而“让数据可用、好用”则是挖掘数据价值的前提。对CDA(Certified Data An ...
2025-12-24数据分析师认证考试全面升级后,除了考试场次和报名时间,小伙伴们最关心的就是报名费了,报 ...
2025-12-23在Power BI数据可视化分析中,矩阵是多维度数据汇总的核心工具,而“动态计算平均值”则是矩阵分析的高频需求——无论是按类别计 ...
2025-12-23在SQL数据分析场景中,“日期转期间”是高频核心需求——无论是按日、周、月、季度还是年度统计数据,都需要将原始的日期/时间字 ...
2025-12-23在数据驱动决策的浪潮中,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越“整理数据、输出报表”的基础层面,转 ...
2025-12-23在使用Excel数据透视表进行数据分析时,我们常需要在透视表旁添加备注列,用于标注数据背景、异常说明、业务解读等关键信息。但 ...
2025-12-22在MySQL数据库的性能优化体系中,索引是提升查询效率的“核心武器”——一个合理的索引能将百万级数据的查询耗时从秒级压缩至毫 ...
2025-12-22在数据量爆炸式增长的数字化时代,企业数据呈现“来源杂、格式多、价值不均”的特点,不少CDA(Certified Data Analyst)数据分 ...
2025-12-22在企业数据化运营体系中,同比、环比分析是洞察业务趋势、评估运营效果的核心手段。同比(与上年同期对比)可消除季节性波动影响 ...
2025-12-19在数字化时代,用户已成为企业竞争的核心资产,而“理解用户”则是激活这一资产的关键。用户行为分析系统(User Behavior Analys ...
2025-12-19在数字化转型的深水区,企业对数据价值的挖掘不再局限于零散的分析项目,而是转向“体系化运营”——数据治理体系作为保障数据全 ...
2025-12-19