分组聚合(group by)顾名思义就是分2步:
groupby()
对某列进行分组agg()
函数里应用聚合函数计算结果,如sum()、mean()、count()、max()、min()
等,用于对每个分组进行聚合计算。import pandas as pd
import numpy as np
import random
df = pd.DataFrame({'A': ['a', 'b', 'a', 'b','a', 'b'],
'B': ['L', 'L', 'M', 'N','M', 'M'],
'C': [107, 177, 139, 3, 52, 38],
'D': [22, 59, 38, 50, 60, 82]})
df
A | B | C | D | |
---|---|---|---|---|
0 | a | L | 107 | 22 |
1 | b | L | 177 | 59 |
2 | a | M | 139 | 38 |
3 | b | N | 3 | 50 |
4 | a | M | 52 | 60 |
5 | b | M | 38 | 82 |
单列分组
① 对单列分组后应用sum
聚合函数
df.groupby('A').sum()
C | D | |
---|---|---|
A | ||
a | 298 | 120 |
b | 218 | 191 |
② 对单列分组后应用单个指定的聚合函数
df.groupby('A').agg({'C': 'min'}).rename(columns={'C': 'C_min'})
C_min | |
---|---|
A | |
a | 52 |
b | 3 |
③ 对单列分组后应用多个指定的聚合函数
df.groupby(['A']).agg({'C':'max','D':'min'}).rename(columns={'C':'C_max','D':'D_min'})
C_max | D_min | |
---|---|---|
A | ||
a | 139 | 22 |
b | 177 | 50 |
两列分组
① 对多列分组后应用sum
聚合函数:
df.groupby(['A', 'B']).sum()
C | D | ||
---|---|---|---|
A | B | ||
a | L | 107 | 22 |
M | 191 | 98 | |
b | L | 177 | 59 |
M | 38 | 82 | |
N | 3 | 50 |
② 对两列进行group
后,都应用max
聚合函数
df.groupby(['A','B']).agg({'C':'max'}).rename(columns={'C': 'C_max'})
C_max | ||
---|---|---|
A | B | |
a | L | 107 |
M | 139 | |
b | L | 177 |
M | 38 | |
N | 3 |
③ 对两列进行分组group
后,分别应用max
、min
聚合函数
df.groupby(['A','B']).agg({'C':'max','D':'min'}).rename(columns={'C':'C_max','D':'D_min'})
C_max | D_min | ||
---|---|---|---|
A | B | ||
a | L | 107 | 22 |
M | 139 | 38 | |
b | L | 177 | 59 |
M | 38 | 82 | |
N | 3 | 50 |
补充1: 应用自定义的聚合函数
df = pd.DataFrame({'A': ['a', 'b', 'a', 'b','a', 'b'],
'B': ['L', 'L', 'M', 'N','M', 'M'],
'C': [107, 177, 139, 3, 52, 38],
'D': [22, 59, 38, 50, 60, 82]})
df
A | B | C | D | |
---|---|---|---|---|
0 | a | L | 107 | 22 |
1 | b | L | 177 | 59 |
2 | a | M | 139 | 38 |
3 | b | N | 3 | 50 |
4 | a | M | 52 | 60 |
5 | b | M | 38 | 82 |
# 使用自定义的聚合函数计算每个分组的最大值和最小值
def custom_agg(x):
return x.max() - x.min()
result = df[['B','C']].groupby('B').agg({'C': custom_agg})
result
C | |
---|---|
B | |
L | 70 |
M | 101 |
N | 0 |
补充2: 开窗函数(类似于SQL里面的over partition by
):
使用transform函数计算每个分组的均值
# 使用transform函数计算每个分组的均值
df['B_C_std'] = df[['B','C']].groupby('B')['C'].transform('mean')
df
A | B | C | D | B_C_std | |
---|---|---|---|---|---|
0 | a | L | 107 | 22 | 142.000000 |
1 | b | L | 177 | 59 | 142.000000 |
2 | a | M | 139 | 38 | 76.333333 |
3 | b | N | 3 | 50 | 3.000000 |
4 | a | M | 52 | 60 | 76.333333 |
5 | b | M | 38 | 82 | 76.333333 |
补充3: 分组聚合拼接字符串 pandas实现类似 group_concat 功能
假设有这样一个数据:
df = pd.DataFrame({
'姓名': ['张三', '张三', '张三', '李四', '李四', '李四'],
'科目': ['语文', '数学', '英语', '语文', '数学', '英语']
})
df
姓名 | 科目 | |
---|---|---|
0 | 张三 | 语文 |
1 | 张三 | 数学 |
2 | 张三 | 英语 |
3 | 李四 | 语文 |
4 | 李四 | 数学 |
5 | 李四 | 英语 |
补充:按某列分组,将另一列文本拼接合并
按名称分组,把每个人的科目拼接到一个字符串:
# 对整个group对象中的所有列应用join 连接元素
(df.astype(str)# 先将数据全转为字符
.groupby('姓名')# 分组
.agg(lambda x : ','.join(x)))[['科目']]# join 连接元素
科目 | |
---|---|
姓名 | |
张三 | 语文,数学,英语 |
李四 | 语文,数学,英语 |
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
现今社会,“转行”似乎成无数职场人无法回避的话题。但行业就像座围城:外行人看光鲜,内行人看心酸。数据分析这个行业,近几年 ...
2025-01-31本人基本情况: 学校及专业:厦门大学经济学院应用统计 实习经历:快手数据分析、字节数据分析、百度数据分析 Offer情况:北京 ...
2025-01-3001专家简介 徐杨老师,CDA数据科学研究院教研副总监,主要负责CDA认证项目以及机器学习/人工智能类课程的研发与授课,负责过中 ...
2025-01-29持证人简介 郭畅,CDA数据分析师二级持证人,安徽大学毕业,目前就职于徽商银行总行大数据部,两年工作经验,主要参与两项跨部 ...
2025-01-282025年刚开启,知乎上就出现了一个热帖: 2024年突然出现的经济下行,使各行各业都感觉到压力山大。有人说,大环境越来越不好了 ...
2025-01-27在数据分析的世界里,“对比”是一种简单且有效的方法。这就像两个女孩子穿同一款式的衣服,效果不一样。 很多人都听过“货比三 ...
2025-01-26数据指标体系 “数据为王”相信大家都听说过。当前,数据信息不再仅仅是传递的媒介,它成为了驱动经济发展的新燃料。对于企业而 ...
2025-01-26在职场中,当你遇到问题的时候,如果感到无从下手,或者抓不到重点,可能是因为你掌握的思维模型不够多。 一个好用的思维模型, ...
2025-01-25俗话说的好“文不如表,表不如图”,图的信息传达效率很高,是数据汇报、数据展示的重要手段。好的数据展示不仅需要有图,还要选 ...
2025-01-24数据分析报告至关重要 一份高质量的数据分析报告不仅能够揭示数据背后的真相,还能为企业决策者提供有价值的洞察和建议。 年薪70 ...
2025-01-24又到一年年终时,各位打工人也迎来了展示成果的关键时刻 —— 年终述职。一份出色的年终述职报告,不仅能全面呈现你的工作价值, ...
2025-01-23“用户旅程分析”概念 用户旅程图又叫做用户体验地图,它是用于描述用户在与产品或服务互动的过程中所经历的各个阶段、触点和情 ...
2025-01-22在竞争激烈的商业世界中,竞品分析对于企业的发展至关重要。今天,我们就来详细聊聊数据分析师写竞品分析的那些事儿。 一、明确 ...
2025-01-22在数据分析领域,Excel作为一种普及率极高且功能强大的工具,无疑为无数专业人士提供了便捷的解决方案。尽管Excel自带了丰富的功 ...
2025-01-17在这个瞬息万变的时代,许多人都在寻找能让他们脱颖而出的职业。而数据分析师,作为大数据和人工智能时代的热门职业,自然吸引了 ...
2025-01-14Python作为一门功能强大的编程语言,已经成为数据分析和可视化领域的重要工具。无论你是数据分析的新手,还是经验丰富的专业人士 ...
2025-01-10完全靠数据决策,真的靠谱吗? 最近几年,“数据驱动”成了商界最火的关键词之一,但靠数据就能走天下?其实不然!那些真正成功 ...
2025-01-09SparkSQL 结构化数据处理流程及原理是什么?Spark SQL 可以使用现有的Hive元存储、SerDes 和 UDF。它可以使用 JDBC/ODB ...
2025-01-09在如今这个信息爆炸的时代,数据已然成为企业的生命线。无论是科技公司还是传统行业,数据分析正在深刻地影响着商业决策以及未来 ...
2025-01-08“数据为王”相信大家都听说过。当前,数据信息不再仅仅是传递的媒介,它成为了驱动经济发展的新燃料。对于企业而言,数据指标体 ...
2025-01-07