京公网安备 11010802034615号
经营许可证编号:京B2-20210330
随着数据量不断增加,抛开可视化技术讲故事是不可能的。数据可视化是一门将数字转化为有用知识的艺术。
R语言编程提供一套建立可视化和展现数据的内置函数和库,让你学习这门艺术。在可视化的技术实现之前,让我们先看看如何选择正确的图表类型。
选择正确的图表类型
基本的展现类型有如下四种:
1. 比较
2. 组成
3. 分布
4. 关系
为了确定哪一种类型的图表适合你的数据,我建议你应该回答一些问题比如,
§ 在一个图表中你想展现多少个变量?
§ 每个变量中你会显示多少个数据点?
§ 你将要显示的是一段时间,一些个体还是一些组的数值?
下图是AndrewAbela博士关于选择正确的图表类型的一个很好的解释。
在你的日常生活中,大部分时间你会接触到以下7种图表。
1. Scattered Plot(散点图)
2. Histogram(柱状图)
3. Bar & Stack Bar Chart (条形图和堆积条形图)
4. Box Plot (箱线图)
5. Area Chart(面积图)
6. Heat Map(热点图)
7. Correlogram(相关图)
我们将使用如下图所示的‘大集市数据’样例来展现如何使用R语言创建可视化。
现在让我们一起看如何使用R语言运用这些可视化。
◇◆◇◆◇
散点图 Scatter Plot
什么时候使用:散点图是用来观察两个连续变量之间的关系。
上述的集市数据集中,如果你想根据成本数据可视化商品,那么我们可以使用两个连续变量的散点图,即下图中的Item_Visibility和 Item_MRP。
这是一个使用带有geom_point()的函数ggplot()的简单散点图R语言代码。
library(ggplot2) // ggplot2 is an R library forvisualizations train.
ggplot(train,aes(Item_Visibility, Item_MRP)) + geom_point() + scale_x_continuous("ItemVisibility", breaks = seq(0,0.35,0.05))+ scale_y_continuous("ItemMRP", breaks = seq(0,270,by = 30))+ theme_bw()
现在我们可以看到第三个变量,一个提供每种数据集特征的类别变量(Item_Type)。下图中,不同的类别通过不同颜色的item_type表示出来。
增加了category的R语言代码:
ggplot(train,aes(Item_Visibility, Item_MRP)) + geom_point(aes(color = Item_Type)) +
scale_x_continuous("ItemVisibility", breaks = seq(0,0.35,0.05))+
scale_y_continuous("Item MRP",breaks = seq(0,270,by = 30))+
theme_bw() +labs(title="Scatterplot")
如下图书所示,我们也可以为每个Item_Type单独创建散点图使其之更加直观清晰。
ggplot(train,aes(Item_Visibility, Item_MRP)) + geom_point(aes(color = Item_Type)) +
scale_x_continuous("ItemVisibility", breaks = seq(0,0.35,0.05))+
scale_y_continuous("Item MRP",breaks = seq(0,270,by = 30))+
theme_bw() +labs(title="Scatterplot") + facet_wrap( ~ Item_Type)
这里,facet_wrap将Item_Type包裹在矩阵层中并且发挥了重要作用。
◇◆◇◆◇
柱形图(Histogram)
什么时候使用:柱形图用来绘制连续变量。他将数据分解到箱子中,并且展现这些箱子的分布频率。我们可以不断的改变这些箱子的大小并且观察它对可视化的影响。
我们的集市数据中,如果我们想知道基于成本的商品计数,如下图所示,那么我们可以使用基于连续变量Item_MRP的柱形图。
这是使用带有geom_histogram()的函数ggplot()的简单柱形图R语言代码。
ggplot(train,aes(Item_MRP)) + geom_histogram(binwidth = 2)+
scale_x_continuous("Item MRP",breaks = seq(0,270,by = 30))+
scale_y_continuous("Count", breaks= seq(0,200,by = 20))+
labs(title = "Histogram")
◇◆◇◆◇
条形图和堆积条形图(Bar & Stack Bar Chart)
什么时候使用:当你想绘制一个类别变量或者连续变量和类别变量的一个组合时,建议使用条形图。
我们数据集中,如果我们想知道具体年份创建的商店计数时,如下图所示,那么使用变量EstablishmentYear的条形图将是最佳选择。
这是带有一个连续变量的函数ggplot()的简单条形图R语言代码。
ggplot(train,aes(Outlet_Establishment_Year)) + geom_bar(fill = "red")+theme_bw()+
scale_x_continuous("EstablishmentYear", breaks = seq(1985,2010)) +
scale_y_continuous("Count", breaks= seq(0,1500,150)) +
coord_flip()+ labs(title = "BarChart") + theme_gray()
◇◆◇◆◇
竖形条形图(Vertical Bar Chart)
你可以移除参数coord_flip()将其变换成竖形条形图。
为了了解一个条形图中,基于商店类型(类别变量)的商品重量(连续变量),使用下述代码:
ggplot(train,aes(Item_Type, Item_Weight)) + geom_bar(stat = "identity", fill ="darkblue") + scale_x_discrete("Outlet Type")+scale_y_continuous("Item Weight", breaks = seq(0,15000, by = 500))+theme(axis.text.x = element_text(angle = 90, vjust = 0.5)) + labs(title ="Bar Chart")
◇◆◇◆◇
堆积条形图(Stacked Bar chart)
堆积条形图是条形图的一种高级版本,用来可视化类别变量的一个组合。
我们的数据集中,如果我们想了解基于类别变量比如种类(OutletType)和位置 (Outlet Location Type)的商店计数,堆积条形图将会是最佳选择。
ggplot(train,aes(Outlet_Location_Type, fill = Outlet_Type)) + geom_bar()+
labs(title ="Stacked Bar Chart", x = "Outlet Location Type", y ="Count of Outlets")
◇◆◇◆◇
箱线图(Box Plot)
什么时候使用:箱线图用来绘制类别和连续变量的一个组合。它有助于可视化数据的传播和检测异常值。它展示了统计学中五个显著的数值-最小值,值的25%,中位数,值的75%和最大值。
我们的数据集中,如果我们想要确定每个商店具体商品的销售情况,包括最小值,最大值以及中位数,箱线图将会有帮助。此外,如下图所示它还给出了销售商品的商店信息。
这些黑点表示异常值。异常值检测和去除是成功数据探索的重要一步。
这是使用带有geom_boxplot的函数ggplot()的简单箱线图R语言代码。
ggplot(train,aes(Outlet_Identifier, Item_Outlet_Sales)) + geom_boxplot(fill ="red")+
scale_y_continuous("ItemOutlet Sales", breaks= seq(0,15000, by=500))+
labs(title = "BoxPlot", x = "Outlet Identifier")
◇◆◇◆◇
面积图(Area Chart)
什么时候使用:面积图用来显示变量或者数据集的连续性。它和线图非常相似,并且通常用来时间序列绘制。此外,它也被用来绘制连续变量和分析潜在趋势。
我们的数据集中,当我们想分析商店商品的销售趋势时,我们可以绘制如下面积图。它显示了基于销售商品的商店计数。
这是带有geom_area的函数ggplot()的显示商店商品销售连续性的简单面积图R语言代码。
ggplot(train,aes(Item_Outlet_Sales)) + geom_area(stat = "bin", bins = 30, fill ="steelblue") + scale_x_continuous(breaks = seq(0,11000,1000))+labs(title = "Area Chart", x = "Item Outlet Sales", y ="Count")
◇◆◇◆◇
热点图(Heat Map)
什么时候使用:热点图使用一张二维图像中颜色的强度(密度)来显示2,3个或者更多变量之间的关系。它允许你探索轴的两个纬度以及颜色密度表示的第三个纬度。
我们的数据集中,如果我们想知道每个商店中每个商品的成本,如下图所示,我们可以使用数据集中的3个变量MRP,OutletIdentifier和Item Type 来绘制热点图。
黑色部分表示商品MRP接近50。亮一些的部分表示商品MRP接近250。
这是一个使用函数ggplot()的简单热点图R语言代码。
ggplot(train, aes(Outlet_Identifier,Item_Type))+
geom_raster(aes(fill = Item_MRP))+
labs(title ="Heat Map", x ="Outlet Identifier", y = "Item Type")+
scale_fill_continuous(name = "ItemMRP")
◇◆◇◆◇
相关图(Correlogram)
什么时候使用:相关图用来测试数据中可用变量之间的相关程度。矩阵中小方框可以被添加阴影或者着色来表示相关值。
颜色越深,变量间的相关值越高。正的相关值用蓝色表示,负的相关值用红色表示。颜色密度和相关值成正比关系。
我们的数据集中,让我们通过下图来查看商品成本,重量,可见度与商店成立年份和商店销售之间的相关性。
我们的例子中,我们可以看到商品成本和商店销售正相关,商品重量和可见度负相关。
这是使用函数corrgram()的简单相关图R语言代码。
install.packages("corrgram")
library(corrgram)
corrgram(train,order=NULL, panel=panel.shade, text.panel=panel.txt,
main="Correlogram")
现在我想你使用起来R语言编程中的ggplot2库将会很容易了。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01在数据驱动决策的时代,企业与从业者每天都会面对海量数据——电商平台的用户行为数据、金融机构的信贷风险数据、快消品牌的营销 ...
2026-04-01在数字化转型的浪潮中,企业数据已从“辅助运营的附属资源”升级为“驱动增长的核心资产”,而一套科学、可落地的企业数据管理方 ...
2026-04-01在数字化时代,每一位用户与产品的交互都会留下可追溯的行为轨迹——电商用户的浏览、加购、下单,APP用户的注册、登录、功能使 ...
2026-03-31在日常数据统计、市场调研、学术分析等场景中,我们常常需要判断两个分类变量之间是否存在关联(如性别与消费偏好、产品类型与满 ...
2026-03-31在CDA(Certified Data Analyst)数据分析师的职场实战与认证考核中,“可解释性建模”是核心需求之一——企业决策中,不仅需要 ...
2026-03-31多层感知机(MLP,Multilayer Perceptron)作为深度学习中最基础、最经典的神经网络模型,其结构设计直接决定了模型的拟合能力、 ...
2026-03-30在TensorFlow深度学习实战中,数据集的加载与预处理是基础且关键的第一步。手动下载、解压、解析数据集不仅耗时费力,还容易出现 ...
2026-03-30在CDA(Certified Data Analyst)数据分析师的日常工作中,“无监督分组、挖掘数据内在聚类规律”是高频核心需求——电商场景中 ...
2026-03-30机器学习的本质,是让模型通过对数据的学习,自主挖掘规律、实现预测与决策,而这一过程的核心驱动力,并非单一参数的独立作用, ...
2026-03-27在SQL Server数据库操作中,日期时间处理是高频核心需求——无论是报表统计中的日期格式化、数据筛选时的日期类型匹配,还是业务 ...
2026-03-27在CDA(Certified Data Analyst)数据分析师的能力体系与职场实操中,高维数据处理是高频且核心的痛点——随着业务场景的复杂化 ...
2026-03-27在机器学习建模与数据分析实战中,特征维度爆炸、冗余信息干扰、模型泛化能力差是高频痛点。面对用户画像、企业经营、医疗检测、 ...
2026-03-26在这个数据无处不在的时代,数据分析能力已不再是数据从业者的专属技能,而是成为了职场人、管理者、创业者乃至个人发展的核心竞 ...
2026-03-26