
R语言与区间估计学习笔记
鉴于区间估计的理论与方法可以在任意一本统计学教程中找到,故这里只是单纯的介绍R语言中区间估计的函数与一些自己编写的区间估计函数。
一、单正态总体的参数估计
1、 方差已知时的均值估计
z.test<-function(x,n,sigma,a,u0,alt){
result<-list()
mean<-mean(x)
result$interval<-c(mean-sigma*qnorm(1-a/2,0,1)/sqrt(n),mean+sigma*qnorm(1-a/2,0,1)/sqrt(n))
z<-(mean-u0)/(sigma/sqrt(n))
p<-pnorm(z,lower.tail=F) #函数笔记:lower.tail是真的话,得出的就是X<=x的分位数,为假的话就是用P(X>x)的办法寻找这个值。一般我们用默认的真就可以了
result$z<-z
result$p.value<-p #通过P值判定参数估计效果
if(alt==2)
reslut$p.value<-2*pnorm(abs(z),lower.tail=F)
else
reslut$p.value<-pnorm(z)
reslut#函数笔记:如果函数的结果需要有多个返回值,可以创建一个list(),并返回该对象。也可以用return()函数,设定返回值。但是一个函数的返回的对象只有一个。
}
2、 方差未知时的均值估计
在小样本中,我们通常使用R语言的内置函数t.test()调用格式:
t.test(x, y = NULL,
alternative = c("two.sided", "less","greater"),
mu = 0, paired = FALSE, var.equal = FALSE,
conf.level = 0.95, ...)
对于大样本,我们可以使用样本方差代替总体方差,使用z.test()处理
3、 方差的区间估计
chisq.var.test<-function(x,n,a,alt=2,sigma0=1)
{
result<-list()
v<-var(x)
result$interval<-c((n-1)*v/qchisq(1-a/2,n-1,lower.tail=T),(n-1)*v/qchisq(a/2,n-1,lower.tail=T))
chi2<-(n-1)*v/sigma0
result$chi2<-chi2
p<-pchisq(chi2,n-1)
if(alt==2)
result$p.value<-2*min(pchisq(chi2,n-1),pchisq(chi2,n-1,lower.tail=F))
else
result$p.value<-pchisq(chi2,n-1,lower.tail=F)
result
}
这里虽然用fisher引理知道利用卡方分布来处理,但是我们不用chisq.test()来命名这个函数,因为R的内置函数中有chisq.test().如果我们这样命名函数,会导致卡方检验时使用有些许不便。
二、两正态总体参数的区间估计
1、 两方差都已知时两均值差的置信区间
two.sample.sigmaknown<-function(x,y,conf.level=0.95,sigma1,sigma2,alt=c("twosides","less","greater"))
{
n1<-length(x)
n2<-length(y)
x_<-mean(x)-mean(y)
a<-1-conf.level
z1<-qnorm(1-a/2)*sqrt(sigma1/n1+sigma2/n2)
z2<-qnorm(1-a)*sqrt(sigma1/n1+sigma2/n2)
if(alt=="two sides")
x_ +c(-z1,z1)
else if(alt=="less")
x_ -z2
else
x_ +z2
}
注:对于大样本,我们可以以样本标准差代替总体方差来进行区间估计
2、 两方差都未知但相等时两均值差的置信区间
直接使用t.test()函数即可
注:由于对于一般情形估计的方法特别多,可以使用neyman的枢轴量法亦可以使用fisher的信仰推断(通常认为后者较好)。故在此不予介绍
3、 两方差比的置信区间 数据分析培训
仔细阅读方差比的区间估计内容,我们应该注意到,两样本在做方差比估计时应该需要做正态性检验,在R中,你可以使用函数shapiro.test()来实现,该检验对数据的正态性是给与保护的。
使用var.test()函数,调用格式如下:
var.test(x, y, ratio = 1,
alternative = c("two.sided", "less", "greater"),
conf.level = 0.95, ...)
最后,我想解释一下置信水平的含义,我们所说的置信水平是指用这样的办法对数据进行100次估计,包含真值的次数为100*conf.level。这里的估计是指对不同数据用同样方法进行估计。我们可以编写一个R函数来验证一下:
judge<-rep(0,1000)
for(i in 1:1000){
set.seed(5*i)
if(t.test(rnorm(100000,5,17))$conf.int[1]<=5&5<=t.test(rnorm(100000,5,17))$conf.int[2])
judge[i]<-0
else
judge[i]<-1
}
table(judge)
输出结果:
#judge
# 0 1
#954 46
#从这里来看,估计达到95%的置信水平
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16在机器学习建模中,“参数” 是决定模型效果的关键变量 —— 无论是线性回归的系数、随机森林的树深度,还是神经网络的权重,这 ...
2025-10-16在数字化浪潮中,“数据” 已从 “辅助决策的工具” 升级为 “驱动业务的核心资产”—— 电商平台靠用户行为数据优化推荐算法, ...
2025-10-16在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15在机器学习入门领域,“鸢尾花数据集(Iris Dataset)” 是理解 “特征值” 与 “目标值” 的最佳案例 —— 它结构清晰、维度适 ...
2025-10-15在数据驱动的业务场景中,零散的指标(如 “GMV”“复购率”)就像 “散落的零件”,无法支撑系统性决策;而科学的指标体系,则 ...
2025-10-15在神经网络模型设计中,“隐藏层层数” 是决定模型能力与效率的核心参数之一 —— 层数过少,模型可能 “欠拟合”(无法捕捉数据 ...
2025-10-14在数字化浪潮中,数据分析师已成为企业 “从数据中挖掘价值” 的核心角色 —— 他们既要能从海量数据中提取有效信息,又要能将分 ...
2025-10-14在企业数据驱动的实践中,“指标混乱” 是最常见的痛点:运营部门说 “复购率 15%”,产品部门说 “复购率 8%”,实则是两者对 ...
2025-10-14在手游行业,“次日留存率” 是衡量一款游戏生死的 “第一道关卡”—— 它不仅反映了玩家对游戏的初始接受度,更直接决定了后续 ...
2025-10-13分库分表,为何而生? 在信息技术发展的早期阶段,数据量相对较小,业务逻辑也较为简单,单库单表的数据库架构就能够满足大多数 ...
2025-10-13在企业数字化转型过程中,“数据孤岛” 是普遍面临的痛点:用户数据散落在 APP 日志、注册系统、客服记录中,订单数据分散在交易 ...
2025-10-13在数字化时代,用户的每一次行为 —— 从电商平台的 “浏览→加购→购买”,到视频 APP 的 “打开→搜索→观看→收藏”,再到银 ...
2025-10-11在机器学习建模流程中,“特征重要性分析” 是连接 “数据” 与 “业务” 的关键桥梁 —— 它不仅能帮我们筛选冗余特征、提升模 ...
2025-10-11在企业的数据体系中,未经分类的数据如同 “杂乱无章的仓库”—— 用户行为日志、订单记录、商品信息混杂存储,CDA(Certified D ...
2025-10-11在 SQL Server 数据库操作中,“数据类型转换” 是高频需求 —— 无论是将字符串格式的日期转为datetime用于筛选,还是将数值转 ...
2025-10-10