
通过数据解释过去
数据的作用主要体现在两方面:解释过去和预测未来。本篇文章介绍如何通过数据解释过去发生的事情。包括过去发生了什么事情?这些事情有什么样的规律?驱动因素是什么?是否有明显的改进或提升?等等。在开始之前我们先来介绍下数据的获取来源以及数据的特点和分类。
数据来源及分类
我们以网站的数据为例,网站的数据来自于服务确日志和网站分析工具。下面是来自网站分析工具Google Analytics的一条日志信息。在这条日志中包含了一些用户及网站的信息。Google通过对这些信息的处理产生数据,并最终生成我们所看到的网站数据报告。
我们将日志进行拆分展现,以便更加清晰的看到日志中所包含的具体信息。可以看到,每一条信息都是以一对参数和值的形式进行记录的。例如,参数t表示这条日志的类型,值pageview表示这是一条PV日志。(Google Analytics中除了PV日志,还包括event日志等其他多种日志类别)说明每条这样的日志都表示一次页面浏览。又如参数dl表示用户当前浏览的页面地址,值表示页面的具体URL。
通过观察日志中的信息可以发现,日志中所包含的信息分为两大类,也就是参数后面的值类型。一类是类别变量,这在Google Aanalytics中参数值类型为text或boolean,例如客户ID,地理位置和屏幕分辨率等。另一类是数值变量,这在Google Analytics中参数值类别为integer或currency,例如事件价值,商品数量,交易收入等。详细信息请参考《Measurement Protocol 参数参考》
类别型变量
数值型变量
在了解了Google Analytics日志中信息的分类后,我们开始分布对每个类别信息的分析方法进行说明。包括每一个类别信息的分析方法和它们所适合的图表展现形式。首先分布介绍类别型变量和数值型变量的分析方法。
单因素分析
这里再啰嗦两句,很多时候我们面对数据无法获得有用的结果或洞察,原因不是因为缺少数据,而是因为数据太多。这里我们将信息进行拆分,每次只针对一类信息进行介绍,发现其中的规律及驱动因素。避免迷失在大量无用的数据中。
前面我们说过,Google Analytics日志收集到的信息分为两类,类别变量和数值变量。下面我们分别来看下这两类信息的分析方法。
类别变量
类别变量指日志中以文本或布尔值的形式记录的信息。这类信息本身不是数据,不能直接进行运算。需要进行处理后才能转化为我们常见的数据形式。例如下面的浏览器信息。每个用户都会使用不同品类的浏览器。当用户访问网站时我们以文本形式记录下了这些浏览器的品牌信息。这类信息就属于类别变量。下面是一组浏览器的品牌信息列表。
对于浏览器品牌这样的类别变量,我们会通过计算生成频率和占比数据。用来分析不同浏览器品牌的流行及重要程度。下面是经计算获得的不同浏览器品牌出现的次数以及在所有浏览器品牌中的占比情况。可以发现,Chrome在所有浏览器中出现次数最多,为30次。占比在所有浏览器中超过50%。说明Chrome在样本数据中是较为流行的浏览器品牌。
柱状图,条形图和饼图或环形图是对类别变量频次和占比数据最好的展现形式,下面我们分别使用的条形图展示了不同浏览器品牌出现的频率,使用环形图展示了不同浏览器品牌的占比情况。
数值变量
数值变量是指日志中以数值形式记录的信息。这些信息可以直接作为数据,或者通过相互间的运算生成新的数据。例如下面的浏览深度是通过到访网站次数和浏览页面总次数计算获得的。
对于数值变量,我们通常使用描述统计来观察这组数据的集中程度和离散程度。用来描述集中程度的指标有平均数,中位数和众数。描述离散程度的有方差和标准差。通过描述统计提供的一系列指标,我们可以发现并描述数值的规律。对于浏览深度数据,通过描述统计可以发现,浏览深度集中在1.5个页面左右。标准差为0.3,表示整体数据离散程度不高。描述统计可以在Excel中数据菜单下的数据分析功能中找到。
除了描述统计外,第二个要分析的是数值的分布。其实前面的平均数,标准差,峰度和偏度几个指标已经大体描绘出了变量分布的形态,但下面的直方图更加直观的展示了数据分布。从直方图中可以看到浏览深度数据符合正态分布,概率最高的是1.5次。换句话说,浏览深度数据集中在1.5页左右,并且较为平稳,变化不大。浏览较多和较少页面的都不多。最少的页面浏览深度为1.12页。最多的页面浏览深度为2.29页。
双变量分析
在前面的单因素分析中,我们分别介绍了类别变量和数值变量的分析方法,下面我们介绍双变量的分析方法。双变量分析简单来说就是单因素的组合。我们把双变量分为三类,分别为类别变量&类别变量,数值变量&数值变量和类别变量&数值变量。分析两个变量间的关联和差异。
类别变量&类别变量
第一个双变量是类别变量&类别变量。下面是一组客户来源和是否成交情况的列表。记录了每个客户的来源以及最终是否成交的情况。其中客户来源分为线上和线下两个来源,是否成交中已成交的记录为”是”,未成交的记录为”否”。对这组数据我们使用卡方检验来分析线上与线下来源在成交率上是否有显著差异。
卡方检验的方法我们之前有单独的文章进行介绍,感兴趣的朋友可以查看详细的计算过程。这里我们粗略说明下计算过程和结果。首先,生成频率表计算出不同来源的成交与未成交数量。并由此计算出线上和线下来源的成交率数据。
第二步,根据前面频率表中的数据,按照卡方检验的方法计算出线上和线下来源成交与未成交的期望值数据。以下是经过计算获得的期望值数据。
最后,通过使用频率表和期望值的数据进行计算,线上和线下的成交率存在显著差异。具体数据请参考下表。
数值变量&数值变量
第二个双变量是数值变量&数值变量,下面是一组广告消费和点击量的数据。记录了在广告平台上的消费情况和获得的点击量数据。对于这组数据我们通过关联分析来分析消费和点击量之间的关联。
相关分析的方法有很多种,我们之前单独有文章介绍过《5种常用的相关分析方法》。这里使用相关分析来分析消费和点击量数据间的关联。通过Excel数据菜单中的数据分析功能获得消费和点击量的相关性数据为0.95,说明消费和点击量高度正相关。
对于两组数值变量,最好的展现形式是使用散点图。下面通过散点图描述了点击量与消费的关系。随着消费的增长,点击量也随之增长。在Excel的散点图中,选择添加趋势线可以自动生成回归方程和判定系数R方。点击量有91%的变化可以被解释。
类别变量&数值变量
第三个双变量是类别变量&数值变量,下面是一组每日访问量数据,分别对应了每一天网站获得的访问量数据。其中日期是类别变量,访问量是数值变量。我们在前15天和后15天分别使用了不同的推广策略。下面将分别使用Z建议和T检验分析访问量数据前后变化差异的显著性。
首先将30天的访问量数据按投放策略分为前后两组,每组各15天,然后计算出每组数据的均值和方差。具体数据如下表所示。
然后在Excel的数据菜单中选择数据分析,使用其中的Z检验进行差异显著性检验。经检验,在95%的置信区间下两组访问量数据间不存在显著性差异。
T检验和Z检验类似,我们在Excel对数据菜单中选择数据分析,使用T检验对两组访问量数据进行差异显著性检验,经检验在95%的置信区间下两组访问量数据不存在显著差异。
最后,总结一下整篇文章的内容。我们将信息分为两类,类别变量和数值变量,类别变量是以文本或布尔值记录的信息,数值变量是以数字记录的信息。在单独对这两类信息进行分析时,类别变量通常使用频率和占比的方法,数值变量通常使用藐视统计和数据分布的方法进行分析。在双变量分析中,主要分析两个变量间的关联和差异的显著性。双变量分析分为三大类,分别为类别变量&类别变量,数值变量&数值变量和类别变量&数值变量。第一种类别变量&类别变量通过卡方检验分析数据间差异的显著性。数值变量&数值变量通过线性相关分析发现数据间的关系。类别变量&数值变量通过Z检验和T检验分析数据间差异的显著性。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
MySQL 执行计划中 rows 数量的准确性解析:原理、影响因素与优化 在 MySQL SQL 调优中,EXPLAIN执行计划是核心工具,而其中的row ...
2025-09-15解析 Python 中 Response 对象的 text 与 content:区别、场景与实践指南 在 Python 进行 HTTP 网络请求开发时(如使用requests ...
2025-09-15CDA 数据分析师:激活表格结构数据价值的核心操盘手 表格结构数据(如 Excel 表格、数据库表)是企业最基础、最核心的数据形态 ...
2025-09-15Python HTTP 请求工具对比:urllib.request 与 requests 的核心差异与选择指南 在 Python 处理 HTTP 请求(如接口调用、数据爬取 ...
2025-09-12解决 pd.read_csv 读取长浮点数据的科学计数法问题 为帮助 Python 数据从业者解决pd.read_csv读取长浮点数据时的科学计数法问题 ...
2025-09-12CDA 数据分析师:业务数据分析步骤的落地者与价值优化者 业务数据分析是企业解决日常运营问题、提升执行效率的核心手段,其价值 ...
2025-09-12用 SQL 验证业务逻辑:从规则拆解到数据把关的实战指南 在业务系统落地过程中,“业务逻辑” 是连接 “需求设计” 与 “用户体验 ...
2025-09-11塔吉特百货孕妇营销案例:数据驱动下的精准零售革命与启示 在零售行业 “流量红利见顶” 的当下,精准营销成为企业突围的核心方 ...
2025-09-11CDA 数据分析师与战略 / 业务数据分析:概念辨析与协同价值 在数据驱动决策的体系中,“战略数据分析”“业务数据分析” 是企业 ...
2025-09-11Excel 数据聚类分析:从操作实践到业务价值挖掘 在数据分析场景中,聚类分析作为 “无监督分组” 的核心工具,能从杂乱数据中挖 ...
2025-09-10统计模型的核心目的:从数据解读到决策支撑的价值导向 统计模型作为数据分析的核心工具,并非简单的 “公式堆砌”,而是围绕特定 ...
2025-09-10CDA 数据分析师:商业数据分析实践的落地者与价值创造者 商业数据分析的价值,最终要在 “实践” 中体现 —— 脱离业务场景的分 ...
2025-09-10机器学习解决实际问题的核心关键:从业务到落地的全流程解析 在人工智能技术落地的浪潮中,机器学习作为核心工具,已广泛应用于 ...
2025-09-09SPSS 编码状态区域中 Unicode 的功能与价值解析 在 SPSS(Statistical Product and Service Solutions,统计产品与服务解决方案 ...
2025-09-09CDA 数据分析师:驾驭商业数据分析流程的核心力量 在商业决策从 “经验驱动” 向 “数据驱动” 转型的过程中,商业数据分析总体 ...
2025-09-09R 语言:数据科学与科研领域的核心工具及优势解析 一、引言 在数据驱动决策的时代,无论是科研人员验证实验假设(如前文中的 T ...
2025-09-08T 检验在假设检验中的应用与实践 一、引言 在科研数据分析、医学实验验证、经济指标对比等领域,常常需要判断 “样本间的差异是 ...
2025-09-08在商业竞争日益激烈的当下,“用数据说话” 已从企业的 “加分项” 变为 “生存必需”。然而,零散的数据分析无法持续为业务赋能 ...
2025-09-08随机森林算法的核心特点:原理、优势与应用解析 在机器学习领域,随机森林(Random Forest)作为集成学习(Ensemble Learning) ...
2025-09-05Excel 区域名定义:从基础到进阶的高效应用指南 在 Excel 数据处理中,频繁引用单元格区域(如A2:A100、B3:D20)不仅容易出错, ...
2025-09-05