京公网安备 11010802034615号
经营许可证编号:京B2-20210330
一、案例综述
案例编号:102006
案例名称:中英文垃圾短信过滤
作者姓名(或单位、或来源):朱江
案例所属行业:J631 电信
案例所用软件:R
案例包含知识点:中英文文本数据处理 朴素贝叶斯分类
案例描述:
目前全球范围内手机已经不成不可替代的生活必需品,而短信和微信成为人们日常沟通的主要方式,其中广告商利用短信服务(SMS)文本信息,以潜在消费者为目标,给他们发送不需要的广告信息。目前垃圾短信可以实现对固定区域内特定手机号码段的用户群发,并且手机号信息泄露极其严重。这些都导致手机用户特别是老的手机用户收到垃圾短信的频率较高,故垃圾短信和正常短信的分类不管是对于运营商还是对于客户来说都是较为有利的工具。
朴素贝叶斯已经成功的用于垃圾邮件的过滤,所以它很有可能用于垃圾短信的过滤。然而,相对于垃圾邮件来说,垃圾短信的自动过滤有额外的挑战:由于短信文本数的限制,所以一条短信是否是垃圾信息的文本量减少了;短信的口语化导致文本可能极其不规整,尤其是中文文本,会带来文本处理的难度;缩写的形式在中英文文本中都较为普遍,而且中文文本中新兴词汇的使用,都会模糊合法信息和垃圾信息的界限。
本案例包含已经添加好标签的英文短信数据和中文短信数据,英文数据有5559条,可以进行全数据处理,数据文件不是很大。而中文短信有80万条的信息,信息量较大,在处理过程中会生成130多G的稀疏矩阵,远超出R的内存限制,且中文文本处理更为麻烦,故这里按照短信长度正常短信和垃圾短信分别取前1000条进行分类建模
本案例知识点没有办法细分,因为文本处理过程中生成的文本文件都比较大,会加大内存消耗,且建模前的稀疏矩阵存储读取都需要转格式较为繁琐,故这里我们英文短信分类作为一个知识点,中文短信分类作为一个知识点。
本案例共包含两个个知识点
1英文短信文本读取、清洗、词云、建模、评估
2中文短信文本读取、清洗、词云、建模、评估
案例执行形式:
单人上机
二、案例知识点
知识点1:
知识点名称:英文短信文本读取、清洗、词云、建模、评估
知识点所属工作角色:文本处理 文本挖掘 词云 朴素贝叶斯分类 分类模型评估
知识点背景:英文文本挖掘过程中常见的文本预处理,朴素贝叶斯属于一种比较简单的分类模型。
知识点描述:
涉及到英文文本处理中的去除无关字符、大小写转换、去除停用词、去除空白、词汇修剪(stem)
知识点关键词:
文本处理 文本挖掘 词云 朴素贝叶斯分类 分类模型评估
知识点所用软件:
Rstudio
操作目的:
英文短信文本读取、清洗、词云、建模、评估
知识点素材(包括数据):
sms_spam.csv
操作步骤:
读取文件,将其中的type列转化为因子
可见其中正常短信共有4812条,垃圾短信有747条。
将所有的文本信息构建成语料库,并且打印出未经处理的前十条信息


构建去除非子母类字符的函数,用空格替换

使用大写变小写、去除停用词、去除多余空格以及上面构建的函数转换语料库,并且观察转换后的前十条信息


将原数据分为训练集和测试集,其中训练集占75%,测试集占25%。

查看训练集和测试集中垃圾信息占比是否近似

可见占比都在13%左右
将语料库同样分为训练集测试集,方便后面构建文档词矩阵使用

分别对所有训练集,训练集中垃圾信息,训练集中正常信息创建词云
所有训练集信息的词云:


训练集中的垃圾信息的词云:
训练集中正常信息的词云:


筛选出现在大于等于5条短信中的词,由训练语料库和测试语料库生成文档词矩阵(稀疏矩阵),根据筛选出的词筛选稀疏矩阵的列

将文档词矩阵中所有大于0的数字替换为“yes”,0替换为“no”,得到训练矩阵train和测试矩阵test

使用朴素贝叶斯对训练矩阵建模,通过测试矩阵预测出分类,然后评估模型的性能


得到的结果中,正常短信中错误的将垃圾信息预测为正常信息的占比为12.7%,垃圾短信中错误的将正常信息预测为垃圾信息的占比为85%,可见模型性能一般,需要更多的初期工作,例如更多的数据采集,词汇处理上更多的选择等等
操作结果:
得到训练集中不同类型短信的词云;将测试集的短信分类。
知识点小结:
本知识点显示了英文文本清洗及转换为文档词矩阵的全套流程,以及使用朴素贝叶斯进行分类和评估的全套流程。
知识点2:
知识点名称:中文短信文本读取、清洗、词云、建模、评估
知识点所属工作角色:
文本处理 文本挖掘 词云 朴素贝叶斯分类 分类模型评估
知识点背景:
中文文本挖掘过程中常见的文本预处理,朴素贝叶斯属于一种比较简单的分类模型。
知识点描述
涉及到中文文本处理中的去除无关字符、去除停用词、去除空白、分词
知识点关键词:
文本处理 文本挖掘 词云 朴素贝叶斯分类 分类模型评估
知识点所用软件:
Rstudio
操作目的:
中文短信文本读取、清洗、词云、建模、评估
知识点素材(包括数据):
sms_labelled.txt stop.txt
操作步骤:
操作步骤:
读取文件,用readLines按行读取

抽取每行文本中的标签信息、短信信息、计算短信长度、合并成一个表格


可见其中第一列是标签,0表示正常信息,1表示垃圾信息
按文本长度由长到短排列所有信息,选取正常信息和垃圾信息中的前一千条

将标签变量type0重新命名为“ham”和“spam”








训练集中的垃圾信息的词云:


训练集中正常信息的词云:


筛选出现在大于等于5条短信中的词,由训练语料库和测试语料库生成文档词矩阵(稀疏矩阵),根据筛选出的词筛选稀疏矩阵的列

将文档词矩阵中所有大于0的数字替换为“yes”,0替换为“no”,得到训练矩阵train和测试矩阵test

使用朴素贝叶斯对训练矩阵建模,通过测试矩阵预测出分类,然后评估模型的性能


得到的结果中,虽然只有200条短信,正常短信中错误的将垃圾信息预测为正常信息的占比为25%,垃圾短信中错误的将正常信息预测为垃圾信息的占比为15.5%,可见模型性能较英文模型有了不错的提升
操作结果:
得到训练集中不同类型短信的词云;将测试集的短信分类。
知识点小结:
本知识点显示了中文文本清洗及转换为文档词矩阵的全套流程,以及使用朴素贝叶斯进行分类和评估的全套流程。
在词云中观察到有乱码,可能是由于txt存储类型不是UTF-8编码,可以打开txt源文件另存为指定编码来处理。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化运营中,“凭感觉做决策” 早已成为过去式 —— 运营指标作为业务增长的 “晴雨表” 与 “导航仪”,直接决定了运营动作 ...
2025-10-24在卷积神经网络(CNN)的训练中,“卷积层(Conv)后是否添加归一化(如 BN、LN)和激活函数(如 ReLU、GELU)” 是每个开发者都 ...
2025-10-24在数据决策链条中,“统计分析” 是挖掘数据规律的核心,“可视化” 是呈现规律的桥梁 ——CDA(Certified Data Analyst)数据分 ...
2025-10-24在 “神经网络与卡尔曼滤波融合” 的理论基础上,Python 凭借其丰富的科学计算库(NumPy、FilterPy)、深度学习框架(PyTorch、T ...
2025-10-23在工业控制、自动驾驶、机器人导航、气象预测等领域,“状态估计” 是核心任务 —— 即从含噪声的观测数据中,精准推断系统的真 ...
2025-10-23在数据分析全流程中,“数据清洗” 恰似烹饪前的食材处理:若食材(数据)腐烂变质、混杂异物(脏数据),即便拥有精湛的烹饪技 ...
2025-10-23在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16