京公网安备 11010802034615号
经营许可证编号:京B2-20210330
信用评分建模中样本容量不足怎么办
在建立个人信用评分模型时,不仅需要有足够多的表征信贷申请人信用行为的特征变量,而且建模样本的容量也必须达到一定的数量。
一般来说,样本容量越大,所建立的模型的精度或预测能力就越高,模型也越稳健。
至于到底需要容量多大的样本才能建立一个预测精度较高,又具有较好稳健性的个人信用评分模型,目前还没有一个基于理论测算的最优数目,不过通过多年的建模实践,国外的许多学者提出了一些经验准则。
这些经验准则告诉我们,问题的关键并不在于建模样本容量的大小,而在于坏客户样本的数量。一个由50000个好客户,500个坏客户构成的建模样本并不比一个由5000个好客户,500个坏客户构成的样本含有更多的信息,因为在建立个人信用评分模型时坏客户样本所含的信息是我们重点关注的。
在实际的建模总体中,通常好客户的数量总是远远大于坏客户的数量,因此建模总体中坏客户数量的多少是能否成功地建立个人信用模型的关键因素之一。
在个人征信体系发达的国家,建模样本容量不足应该不是一个严重的问题。
这些国家解决这一问题可以有多种途径:
当需要对某种信用产品申请人进行评分时,若样本容量不足而不能建立评分模型,可以先用征信局的“通用化评分”来代替。待好、坏客户样本累积到一定容量后再建模。实际上有许多信用产品根本就不建立定制化的评分模型,而是直接用征信局提供的“通用化评分”对客户进行评价,当然这需要一定的成本。
由于社会征信体系较发达的国家一般其信用市场也较发达,信用产品比较丰富,在一个新的信用产品推广的初期,往往可以找到与之相类似的产品,用类似产品的样本建模在初期也是一个不错的选择。
在征信体系发达的国家,无论是信贷机构还是信用咨询机构都有较多的信用分析专家,利用这些专家的知识和经验可以建立所谓的“专家模型”。
就中国目前的状况而言,当建模样本不足时,以上3中解决方法均不是很有效的:
由于征信体系不发达,没有“通用化评分”可资利用;
消费信用产品还比较单一;
有关消费信用分析的专家还不多。
因此,样本容量不足是在中国现阶段建立个人信用评分模型时常常遇到的问题之一。
解决建模样本容量不足的方法有两类方法可以尝试:
一类是合并不同银行的相同产品的样本;
另一种是统计学中的Bootstrap方法。
方法1 将不同客户总体数据合并建模
当样本量不足时,最容易想到的一个解决办法是:将不同银行的相同产品的样本合并起来建立模型。
例如,当某个商业银行要针对其所发行的一种信用卡建立个人信用评分模型时,它可以将该银行在不同地区的分行的客户数据进行合并,这样在样本的数量上就可以满足建模的要求。
值得注意的是,这种合并不同总体的做法与通常建立个人信用评分时的做法是相反的。在建立个人信用评分模型时,为了提高模型的预测精度,当总体内部差异较大时,如果样本的容量足够大,在实际中的做法是将总体划分成几个内部一致性较好的子总体,然后对各个子总体分别建模。
关于将不同客户总体数据合并后建立模型的效果,国外的学者有过一些研究。大部分的实证研究表明,合并后建立的模型其精度往往会下降。
精度下降的原因可能来自两个方面:
由于各总体特征的差异较大影响了模型的预测能力;
各总体中保存的特征变量不尽一致,建模时往往只能使用各总体共有的部分。特征变量的减少,往往损失许多有用的信息。
方法2 Bootstrap方法应用于处理样本容量不足不同客户总体数据合并建模
将样本分成两部分,一部分是用于建模,另一部分用于检验。
这样做的主要目的是为了避免同时将一组样本既作为训练样本(用于建立模型)又作为检验样本从而对预测精度的估计过于乐观。在样本容量充足的情况下,这种做法是很有效的。但是在有些情况下,建模的样本数量并不是很充足。在这种情况下若还保留一部分样本进行检验显然不是一种有效的做法,这样会白白浪费掉保留样本中所包含的信息。
统计学中发展了多种方法来克服上述保留样本在样本容量不足时的缺陷,BootStrap方法是一种被证明行之有效的方法。
实际中的算法如下:
从经验分布F_n中有放回地抽取一个容量为n的样本(x_1,x_2,⋯,x_n)。通常称为BootStrap样本。
利用此样本计算θ的估计值,θ^*=θ(x_1,x_2,⋯,x_n)。通常称为BootStrap估计。
将过程(1),(2)重复K次,这样就得到K个BootStrap样本及K个BootStrap估计。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01在数据驱动决策的时代,企业与从业者每天都会面对海量数据——电商平台的用户行为数据、金融机构的信贷风险数据、快消品牌的营销 ...
2026-04-01在数字化转型的浪潮中,企业数据已从“辅助运营的附属资源”升级为“驱动增长的核心资产”,而一套科学、可落地的企业数据管理方 ...
2026-04-01在数字化时代,每一位用户与产品的交互都会留下可追溯的行为轨迹——电商用户的浏览、加购、下单,APP用户的注册、登录、功能使 ...
2026-03-31在日常数据统计、市场调研、学术分析等场景中,我们常常需要判断两个分类变量之间是否存在关联(如性别与消费偏好、产品类型与满 ...
2026-03-31在CDA(Certified Data Analyst)数据分析师的职场实战与认证考核中,“可解释性建模”是核心需求之一——企业决策中,不仅需要 ...
2026-03-31多层感知机(MLP,Multilayer Perceptron)作为深度学习中最基础、最经典的神经网络模型,其结构设计直接决定了模型的拟合能力、 ...
2026-03-30在TensorFlow深度学习实战中,数据集的加载与预处理是基础且关键的第一步。手动下载、解压、解析数据集不仅耗时费力,还容易出现 ...
2026-03-30在CDA(Certified Data Analyst)数据分析师的日常工作中,“无监督分组、挖掘数据内在聚类规律”是高频核心需求——电商场景中 ...
2026-03-30机器学习的本质,是让模型通过对数据的学习,自主挖掘规律、实现预测与决策,而这一过程的核心驱动力,并非单一参数的独立作用, ...
2026-03-27在SQL Server数据库操作中,日期时间处理是高频核心需求——无论是报表统计中的日期格式化、数据筛选时的日期类型匹配,还是业务 ...
2026-03-27在CDA(Certified Data Analyst)数据分析师的能力体系与职场实操中,高维数据处理是高频且核心的痛点——随着业务场景的复杂化 ...
2026-03-27在机器学习建模与数据分析实战中,特征维度爆炸、冗余信息干扰、模型泛化能力差是高频痛点。面对用户画像、企业经营、医疗检测、 ...
2026-03-26在这个数据无处不在的时代,数据分析能力已不再是数据从业者的专属技能,而是成为了职场人、管理者、创业者乃至个人发展的核心竞 ...
2026-03-26