
数据分析—问卷调查从模型到算法
每个人心中都有一个完美的另一半,如何去找到这个自己心中最认可的另一半,在慢慢人生旅途中,我们所经历过的事情,都在影响着我们的决定,影响着我们对另一半的选择,这将是一个重大的问题,关乎着自己未来的无论是物质还是精神上的幸福。这不仅仅是一个运气的问题,还包含着巨大的人生智慧在其中,用你独具慧眼的原则和标准去判断。那么如何在长长的时间轴上判断最优秀的另一半是否出现了呢?是否其中也有哲学在其中呢?是否有量化的策略使得我们成功的几率更大呢?
2.模型始于假设:
假设1:一切皆可量化,两个人在一起取决于价值,外貌、性格、潜力甚至于感情责任等等都可以被量化,最终形成一个人的基本属性——价值,价值越高则越优秀,选择最优秀的人为伴侣;
假设2:基于时间序列,每接触一个人在经历一段时间相处之后不具有可回溯性(即不考虑惊天大逆转,突然屌丝变高帅富),再次和前任谈的时候,考虑到人总是成长的,前任以新的价值属性出现,作为挑选方,对方价值的评估以当时那个时间节点不可变(人总会成长,虽然过去的认知的价值在当前可能被贬低,但被估值的人也会成长),对于价值的评估不会失误到有近乎于极端异常值的判断,在时间轴上异性有先后顺序;
假设3:挑选是单向的,每个人都在寻找心中最高价值的TA,并且知道会遇到多少个异性
模型的量化好坏取决于算法的优劣、假设的合理性,基于以上假设,去推导其中算法:
现在我们的男主,在时间轴上他会遇到N个我们的女主,男主要挑到最优秀的真命女主,假定处于第i个女主是真命女主,为了遇到这个这个真命女主,男主需要去接触k次女主,作为对女主价值的认知,以便进行判断对真命女主的价值的benchmark认知:
第一步:第i个女主是真命女主,那么概率是1/N。
第二步:benchmark的意义在与,前i个女主中,比第i个真命女主价值小的次最大价值女主出现在试探性的1到k个女主中,概率为k/(i-1),这个次最大价值女主为什么不是全域上的最大女主,因为我们遇到了第i个时,第i个女主是假定的最大价值女主,我们不需要i+1到N去挑了。同样的道理,一旦男主接触试探了k个女主,次最大价值女主在1到k时,那么k到i-1女主自然是不用再看了,第一个比1到k中出现的次最大女主价值大的就是真命女主。
那么男主试探k个女主找到真命的概率就是:
3.结论分析
综上可得,目标函数可用。对目标函数求导,发现x=1/e时,一阶导数为0,x<1/e时导数为正,x>1/e时则为负,故而目标函数收敛于x=1/e。代入x=1/e,得到
也就是说,当x=1/e的时候,在我们的男主试探(认识了N*个女主)有最大的概率即约为37%的概率遇到我们的真命女主——那个我们男主最想要的的女主。从理论模型我们回到现实,也即是说当我们的男主在时间序列上遇到了100个女主(N=100),那么我们的男主要认识37次女主(k=37,),以进行判断真命女主,在37次接触中,只要碰到从第37个开始,比前36个价值最高的女主还高,那么该女主就以最大可能性成为我们的最高价值女主。那么这就是你最认可的另一半了。
实际生活中,我们打交道的女生其实远没有那么多,所以当我们认识几个女生以后就开始“收敛”了,从心里我们就认定彼此了。上述算法的结论一般性意义在与:
1.假如你对未来伴侣特别挑剔,那你起码应该适量的多认识几个,尤其是对于那些身边异形很多的朋友,想要遇到自己中意的,可能就需要更多才能有一个比较理性的判断;
2.从“收敛”性看出,不是认识的异形越多越多就会遇到更优秀的人,往往越到最后就会成空。成为一个人的初恋意味着成为别人的“收敛”节点可能性更大,假如你还可以重新加入TA的挑选队列,反言之初恋往往没有好下场也是同样的道理,人是会变的,价值观自然也会变;
3.因为资源有限,好的总是出手或者被出手快,导致身边的异性偏少,越优秀的会越快“收敛”;反言之越优秀可能最后就剩了下来,这是两个极端情况,实际生活中并不少见,晚点结婚对于现代更开放的年轻人来说也是有优势的,处于中间则是最惨的——所以这大约也是被逼婚的重要原因。
更多的结论在实际调查中是有待调研得出的......
我们要做的是能以最大化的几率遇到最优秀的人,以最高的效率遇到你最中意的人,然后就放手去追TA吧!当然,也要去认识到模型的短板,毕竟找到另一半是一个涉及方方面面,是个极为复杂的问题。假设1缺陷在与量化的困难,一个人的价值不是裸露在外面就可以看到的,不然也不会有这么多遇人不淑;假设3的缺陷在与如何去确认N值的大小,虽然一个时期内经过一定时间的沉淀,身边的异性是差不多固定的......这些都不用去管,重要的是模型通过了,只需要添加一些问题:你身边的异性朋友有多少?你的性格是外向、一般、宅男?等等这些问题,只要人们对美的向往心无限,那么我的模型和算法就有可取之处。
从上述模型和算法,我们要知道,做数据分析和数据挖掘必须有着对数据的敏感性,假如过去曾经发生的事对于未来没有任何影响的话,那么TA一定是失败的,我觉得对于任何其他职业也是一样。在真正的数据挖掘和分析师看来,将来的事从来都不是随机,发生过的事情进过一定的“惩罚机制”去放大效果,对于将来的影响是巨大的。一定几率的事可以代表着将近绝对的概率发生,这并不是一句矛盾的话。这正是机器学习的核心所在,细小的变动,于细枝末节处慢慢的体现出对最终结果的影响,发生过的数据一点点的推进学习的步伐,最后就能学习到一定规律的东西。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15在机器学习入门领域,“鸢尾花数据集(Iris Dataset)” 是理解 “特征值” 与 “目标值” 的最佳案例 —— 它结构清晰、维度适 ...
2025-10-15在数据驱动的业务场景中,零散的指标(如 “GMV”“复购率”)就像 “散落的零件”,无法支撑系统性决策;而科学的指标体系,则 ...
2025-10-15在神经网络模型设计中,“隐藏层层数” 是决定模型能力与效率的核心参数之一 —— 层数过少,模型可能 “欠拟合”(无法捕捉数据 ...
2025-10-14在数字化浪潮中,数据分析师已成为企业 “从数据中挖掘价值” 的核心角色 —— 他们既要能从海量数据中提取有效信息,又要能将分 ...
2025-10-14在企业数据驱动的实践中,“指标混乱” 是最常见的痛点:运营部门说 “复购率 15%”,产品部门说 “复购率 8%”,实则是两者对 ...
2025-10-14在手游行业,“次日留存率” 是衡量一款游戏生死的 “第一道关卡”—— 它不仅反映了玩家对游戏的初始接受度,更直接决定了后续 ...
2025-10-13分库分表,为何而生? 在信息技术发展的早期阶段,数据量相对较小,业务逻辑也较为简单,单库单表的数据库架构就能够满足大多数 ...
2025-10-13在企业数字化转型过程中,“数据孤岛” 是普遍面临的痛点:用户数据散落在 APP 日志、注册系统、客服记录中,订单数据分散在交易 ...
2025-10-13在数字化时代,用户的每一次行为 —— 从电商平台的 “浏览→加购→购买”,到视频 APP 的 “打开→搜索→观看→收藏”,再到银 ...
2025-10-11在机器学习建模流程中,“特征重要性分析” 是连接 “数据” 与 “业务” 的关键桥梁 —— 它不仅能帮我们筛选冗余特征、提升模 ...
2025-10-11在企业的数据体系中,未经分类的数据如同 “杂乱无章的仓库”—— 用户行为日志、订单记录、商品信息混杂存储,CDA(Certified D ...
2025-10-11在 SQL Server 数据库操作中,“数据类型转换” 是高频需求 —— 无论是将字符串格式的日期转为datetime用于筛选,还是将数值转 ...
2025-10-10在科研攻关、工业优化、产品开发中,正交试验(Orthogonal Experiment)因 “用少量试验覆盖多因素多水平组合” 的高效性,成为 ...
2025-10-10在企业数据量从 “GB 级” 迈向 “PB 级” 的过程中,“数据混乱” 的痛点逐渐从 “隐性问题” 变为 “显性瓶颈”:各部门数据口 ...
2025-10-10在深度学习中,“模型如何从错误中学习” 是最关键的问题 —— 而损失函数与反向传播正是回答这一问题的核心技术:损失函数负责 ...
2025-10-09本文将从 “检验本质” 切入,拆解两种方法的核心适用条件、场景边界与实战选择逻辑,结合医学、工业、教育领域的案例,让你明确 ...
2025-10-09在 CDA 数据分析师的日常工作中,常会遇到这样的困惑:某电商平台 11 月 GMV 同比增长 20%,但究竟是 “长期趋势自然增长”,还 ...
2025-10-09Pandas 选取特定值所在行:6 类核心方法与实战指南 在使用 pandas 处理结构化数据时,“选取特定值所在的行” 是最高频的操作之 ...
2025-09-30球面卷积神经网络(SCNN) 为解决这一痛点,球面卷积神经网络(Spherical Convolutional Neural Network, SCNN) 应运而生。它通 ...
2025-09-30