京公网安备 11010802034615号
经营许可证编号:京B2-20210330
来源:麦叔编程
作者:麦叔
到了过年的时候了,你要回老家过年吗?如果回老家过年,需要做核算检测。我也正在犹豫中。你们做了吗?
核酸检测本身是一个比较费时,费力,费钱的复杂过程,所以现在低风险地区都是采用的10人一组混合检验的。
具体来说就是将采集自10个人的10支拭子样本集合于1个采集管中进行核酸检测。
混检筛查中一旦发现阳性或弱阳性,将会立即进行追溯,通知相关部门对该混采管的10个受试者暂时单独隔离,
并重新采集单管拭子进行复核,再确定这10个人当中到底哪一个是阳性。
如果检测结果是阴性,意味着这10个样本全是阴性,混检的10个人都是安全的。
看到这个过程后,作为程序员的我禁不住拍了一下自己的大腿,这不就是个很简单算法嘛!
但是这个小小的算法把检验的成本降低了接近90%,把检验的速度提高了近10倍!算法真是太奇妙了!
顺着这个思路,有没有更好的算法,进一步加快这个过程呢?理论上来说,如果用二分法,
可以把14亿次检测减少到大概23万次左右。而现在10比1混合检验的次数大约是1.4亿次。
关于算法,本文下面再讨论。咱们先说一个大家关心的问题。
把10个人的样本混在一起,咋一听觉得很不靠谱,实际上还是很靠谱的。但是会不会出现检验不准的情况呢?确实存在一些潜在问题。
以下专业分析来自知乎,作者:返朴https://www.zhihu.com/question/404866690/answer/1326422005
假阴性率会增加,准确度下降。举两个假设的情况给大家解释为什么假阴性率会增加:
情况1:假设使用的是饱受争议的美国CDC的核酸RT-PCR检测试剂盒。这个试剂盒一共测三个新冠基因片段,
其中两个是新冠特异的基因片段,第三个是所有类似于SARS的冠状病毒都有的基因片段。
除此以外,还包括一个控制探针 (control probe)针对人的RNase P基因。这个探针的目的是用来保障取样足够和RNA提纯过程没有出错。
如果取样不够,或者RNA纯化出错导致RNA降解,探针就读不出数值,检测结果就是“无效(invalid)”,还需要重新再测。
如果有位阳性感染者,在鼻咽拭子取样的时候,样本量取得不够。如果对这个样本用美国CDC的核酸试剂盒进行单独的核酸检测,虽然新冠基因是阴性,RNase P控制探针的结果也是阴性,最终结果就显示“无效(invalid)”,还需要重新再测。
然而,如果把这个人的样本和其他4个人混合在一起,进行混合核酸测试——其他4位都是核酸阴性,且取到了足够的样本。这时,用美国CDC的核酸试剂盒去检测5个人的混合样本,测出新冠基因是阴性,RNase P的控制探针是阳性(表明样本取样提纯没有出错),因此得出结论:这5位都是核酸阴性。那位阳性感染者得到的就是一个“假阴性”结果。
情况2:不同核酸检测的设计不同,导致试剂盒的敏感度和特异性也不同。假设所用核酸试剂盒的敏感度是500个新冠RNA/毫升。有一位阳性感染者取样,提纯样本里面的RNA以后,用1µg总RNA量来做RT-PCR,里面包含了500个新冠RNA/毫升,那么检测结果是阳性。可是如果他的样本和其他4个人混在一起检测,还是用1µg总RNA量来做RT-PCR,假设是等量混合,那么他的RNA实际只占~20%。1µg总混合RNA里面大约只有100个新冠RNA/毫升。受试剂盒敏感度的限制,结果会是假阴性。
但这不是说混检就不能实行,而是有一定的限制:
(1)每个样本的采集量要足,否则会出现稀释后出现假阴性的问题
(2)只对低风险地区实行混检
下面用算法简单模拟采样数量和检测数量,其实也不是什么算法,就是两个数学公式:
total_pop = 1400000000 #总人口 rate = 0.00001 #感染率 group_size = 10
#每组人数 check_num = 0
caiyang_num = 0 #计算采用数量:总人数 + 要重复采样的数量 caiyang_num = total_pop
+ (total_pop * rate) *
group_size #计算检测次数:人数除以10 + 重复检测数 check_num = total_pop / group_size
+ (total_pop * rate) *
group_size print(f'采用数:{caiyang_num:,}, 检测数量:{check_num:,}')
运行结果:采用数:1,400,140,000.0, 检测数量:140,140,000.0
假设感染率为10万分之一的情况下,要采样14亿零14万次;要检测1亿4千万零14万次。
如果调整每100人一组检测:采用数:1,401,400,000.0, 检测数量:15,400,000.0
采用数增加了100多万次,而检测次数减少了1亿2千多万次。也就是说分组能极大的减少检测次数。
但是受制于准确度的影响,我们这里只是探讨一下算法。这些算法在计算机的数据处理上,确实起到了把效率提高几万,甚至几十几百万次的效果。
如果用二分查找法,可以进一步减少检测次数减少到23万次。
这里仍然假设10万人有一个感染,也就是10万个人里面找一个人出来。用二分法需要找约17次,那么总的检测次数就是:
group_size = 100000 #10万人一组 group_num = 1400000000 / 100000 # 共1400组 from math
import log #
用2分法每10万人只需要log(10w,2),大约16次检测 check_num = round(log(group_size, 2) * group_num)
print(f'检测数量:{check_num:,}')
计算结果:检测数量:232,535
虽然由于检测准确度的问题,二分法不能实施,但算法的世界真的很奥妙。大家都应该学点编程,学点算法。
下面是二分查找法的Python非递归实现:
#二分查找法,非递归实现 def binary_search(arr, x):
low = 0 high = len(arr) - 1 mid = 0
while low <= high:
mid = (high + low) // 2 if arr[mid] < x:
low = mid + 1
elif arr[mid] > x:
high = mid - 1 else:
return mid
return -1
arr = [ 2, 3, 4, 10, 40 ] x = 10 result = binary_search(arr, x)
下面是递归实现:
def binary_search(arr, low, high, x):
if high >= low:
mid = (high + low) // 2 if arr[mid] == x:
return mid
elif arr[mid] > x:
return binary_search(arr, low, mid - 1, x)
else:
return binary_search(arr, mid + 1, high, x)
else:
return -1
arr = [ 2, 3, 4, 10, 40 ]
x = 10 result = binary_search(arr, 0, len(arr)-1, x)
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在MySQL数据库优化中,分区表是处理海量数据的核心手段——通过将大表按分区键(如时间、地域、ID范围)分割为多个独立的小分区 ...
2026-03-19在商业智能与数据可视化领域,同比、环比增长率是分析数据变化趋势的核心指标——同比(YoY)聚焦“长期趋势”,通过当前周期与 ...
2026-03-19在数据分析与建模领域,流传着一句行业共识:“数据决定上限,特征决定下限”。对CDA(Certified Data Analyst)数据分析师而言 ...
2026-03-19机器学习算法工程的核心价值,在于将理论算法转化为可落地、可复用、高可靠的工程化解决方案,解决实际业务中的痛点问题。不同于 ...
2026-03-18在动态系统状态估计与目标跟踪领域,高精度、高鲁棒性的状态感知是机器人导航、自动驾驶、工业控制、目标检测等场景的核心需求。 ...
2026-03-18“垃圾数据进,垃圾结果出”,这是数据分析领域的黄金法则,更是CDA(Certified Data Analyst)数据分析师日常工作中时刻恪守的 ...
2026-03-18在机器学习建模中,决策树模型因其结构直观、易于理解、无需复杂数据预处理等优势,成为分类与回归任务的首选工具之一。而变量重 ...
2026-03-17在数据分析中,卡方检验是一类基于卡方分布的假设检验方法,核心用于分析分类变量之间的关联关系或实际观测分布与理论期望分布的 ...
2026-03-17在数字化转型的浪潮中,企业积累的数据日益庞大且分散——用户数据散落在注册系统、APP日志、客服记录中,订单数据分散在交易平 ...
2026-03-17在数字化时代,数据分析已成为企业决策、业务优化、增长突破的核心支撑,从数据仓库搭建(如维度表与事实表的设计)、数据采集清 ...
2026-03-16在数据仓库建设、数据分析(尤其是用户行为分析、业务指标分析)的实践中,维度表与事实表是两大核心组件,二者相互依存、缺一不 ...
2026-03-16数据是CDA(Certified Data Analyst)数据分析师开展一切工作的核心载体,而数据读取作为数据生命周期的关键环节,是连接原始数 ...
2026-03-16在用户行为分析实践中,很多从业者会陷入一个核心误区:过度关注“当前数据的分析结果”,却忽视了结果的“泛化能力”——即分析 ...
2026-03-13在数字经济时代,用户的每一次点击、浏览、停留、转化,都在传递着真实的需求信号。用户行为分析,本质上是通过收集、整理、挖掘 ...
2026-03-13在金融、零售、互联网等数据密集型行业,量化策略已成为企业挖掘商业价值、提升决策效率、控制经营风险的核心工具。而CDA(Certi ...
2026-03-13在机器学习建模体系中,随机森林作为集成学习的经典算法,凭借高精度、抗过拟合、适配多场景、可解释性强的核心优势,成为分类、 ...
2026-03-12在机器学习建模过程中,“哪些特征对预测结果影响最大?”“如何筛选核心特征、剔除冗余信息?”是从业者最常面临的核心问题。随 ...
2026-03-12在数字化转型深度渗透的今天,企业管理已从“经验驱动”全面转向“数据驱动”,数据思维成为企业高质量发展的核心竞争力,而CDA ...
2026-03-12在数字经济飞速发展的今天,数据分析已从“辅助工具”升级为“核心竞争力”,渗透到商业、科技、民生、金融等各个领域。无论是全 ...
2026-03-11上市公司财务报表是反映企业经营状况、盈利能力、偿债能力的核心数据载体,是投资者决策、研究者分析、从业者复盘的重要依据。16 ...
2026-03-11