python中怎么用pandas进行分组聚合(groupby)?

Pandas的groupby通过“分、用、合”实现数据聚合,支持多列分组与复杂聚合,结合filter、sort_values和reset_index可高效处理结果,并可通过优化数据类型、使用Dask等提升大数据性能。

python中怎么用pandas进行分组聚合(groupby)?

Pandas中的

groupby

操作,简单来说,就是将你的数据集根据一个或多个键(列)进行拆分,然后对每个独立的组应用一个函数(比如求和、平均值),最后将这些结果组合起来。它是我在数据分析工作中,处理聚合统计、探索数据模式时,几乎离不开的核心工具。理解并掌握它,能让你对数据有更深层次的洞察。

解决方案

groupby

的核心思想是“分、用、合”(Split-Apply-Combine)。当你需要对数据集中的某个类别或分组进行统计分析时,

groupby

就是你的首选。

首先,你需要一个DataFrame。我们创建一个简单的例子:

import pandas as pdimport numpy as npdata = {    '城市': ['北京', '上海', '北京', '广州', '上海', '北京'],    '商品': ['A', 'B', 'A', 'C', 'B', 'C'],    '销售额': [100, 150, 200, 50, 120, 80],    '利润': [20, 30, 40, 10, 25, 15]}df = pd.DataFrame(data)print("原始数据:")print(df)

1. 基本分组聚合

立即学习“Python免费学习笔记(深入)”;

如果你想知道每个城市的总销售额,你可以这样做:

# 按城市分组,计算销售额总和city_sales = df.groupby('城市')['销售额'].sum()print("n按城市分组的总销售额:")print(city_sales)

这里,

df.groupby('城市')

完成了“分”的步骤,它根据“城市”列的值将DataFrame拆分成了“北京”、“上海”、“广州”三个组。

['销售额'].sum()

则是在每个组上“应用”了求和操作,最后Pandas自动将这些结果“组合”成了一个新的Series。

你也可以对多个列进行聚合,或者使用不同的聚合函数

# 按城市分组,计算销售额的平均值和利润的最大值city_stats = df.groupby('城市').agg({    '销售额': 'mean',    '利润': 'max'})print("n按城市分组的平均销售额和最大利润:")print(city_stats)

常用的聚合函数包括:

sum()

(求和),

mean()

(平均值),

median()

(中位数),

min()

(最小值),

max()

(最大值),

count()

(非NaN值的数量),

size()

(组的大小,包含NaN),

std()

(标准差),

var()

(方差)等。你也可以直接传入字符串形式的函数名。

2. 多列分组

如果你想更细致地分析,比如想知道每个城市里,每种商品的销售额总和,那就需要多列分组:

# 按城市和商品分组,计算销售额总和city_product_sales = df.groupby(['城市', '商品'])['销售额'].sum()print("n按城市和商品分组的总销售额:")print(city_product_sales)

这样会生成一个MultiIndex的Series,非常适合进行多维度的分析。

Pandas Groupby如何实现多列分组与复杂聚合操作?

在实际的数据分析场景中,我们很少只对一个列进行简单的聚合。多列分组是常态,而复杂聚合则意味着我们可能需要对不同的列应用不同的聚合逻辑,甚至自定义聚合函数。

当我们用

df.groupby(['列1', '列2'])

进行多列分组时,Pandas会根据这些列的唯一组合来创建独立的组。这就像是先按“城市”分,再在每个城市内部按“商品”分,形成一个层级结构。结果通常是一个MultiIndex(多级索引)的Series或DataFrame,这在视觉上可能需要一点时间来适应,但它的信息量非常大。

对于复杂聚合,

agg()

方法提供了极大的灵活性。你可以传入一个字典,其中键是你要聚合的列名,值可以是单个聚合函数字符串、函数对象,或者一个包含多个函数字符串/函数对象的列表。

# 示例:对不同列应用不同聚合,并使用多个聚合函数complex_agg = df.groupby('城市').agg(    总销售额=('销售额', 'sum'), # 命名聚合,结果列名为“总销售额”    平均利润=('利润', 'mean'), # 结果列名为“平均利润”    商品种类=('商品', lambda x: x.nunique()) # 使用lambda表达式自定义聚合:计算商品种类数)print("n复杂聚合操作:")print(complex_agg)

这里我用了Python的

lambda

表达式来定义一个匿名函数

lambda x: x.nunique()

,它计算了每个组中“商品”列的唯一值数量,这比写一个完整的函数更简洁。这种自定义聚合的能力,让

groupby

变得异常强大。

有时,你可能需要对整个组应用一个更复杂的逻辑,而不仅仅是简单的聚合函数。这时,

apply()

方法就派上用场了。

apply()

会将整个DataFrame的子集(每个组)传递给你的函数。

# 示例:使用apply()查找每个城市销售额最高的商品def top_product(group):    return group.loc[group['销售额'].idxmax()]top_selling_per_city = df.groupby('城市').apply(top_product)print("n每个城市销售额最高的商品信息:")print(top_selling_per_city)
apply()

agg()

更灵活,但通常也更慢,因为它无法像

agg()

那样利用Pandas底层的优化。所以,在能用

agg()

解决问题时,优先选择

agg()

。只有当你的逻辑真的需要访问整个组的结构时,才考虑

apply()

处理Groupby结果时,如何高效地筛选、排序与重置索引?

当我们完成分组聚合后,得到的结果往往需要进一步的整理和分析。筛选、排序和重置索引是处理

groupby

结果时最常见的后续操作。

1. 筛选分组后的数据 (

filter()

)

有时候,我们只对满足特定条件的分组结果感兴趣。比如,我们只想看到总销售额超过某个阈值的城市。这时候,

filter()

方法就非常有用。它允许你根据每个组的聚合结果来决定是否保留这个组。

# 筛选出总销售额大于250的城市filtered_cities = df.groupby('城市').filter(lambda x: x['销售额'].sum() > 250)print("n筛选出总销售额大于250的原始数据行:")print(filtered_cities)

需要注意的是,

filter()

返回的是原始DataFrame中满足条件的行,而不是聚合后的结果。如果你想筛选聚合后的结果,你需要先进行聚合,然后对聚合后的DataFrame进行筛选。

# 先聚合,再筛选聚合结果agg_result = df.groupby('城市')['销售额'].sum()high_sales_cities_agg = agg_result[agg_result > 250]print("n筛选出总销售额大于250的城市及其总销售额(聚合结果):")print(high_sales_cities_agg)

2. 排序分组结果 (

sort_values()

)

聚合后的数据通常是按分组键的顺序排列的,但我们可能需要根据聚合值进行排序,以便快速识别最大值或最小值。

# 按城市分组并计算总销售额,然后按销售额降序排列sorted_city_sales = df.groupby('城市')['销售额'].sum().sort_values(ascending=False)print("n按总销售额降序排列的城市:")print(sorted_city_sales)

如果你的聚合结果是一个DataFrame(比如你使用了多个聚合函数),你可以指定按哪个列进行排序:

# 按城市分组,计算销售额和利润的平均值,然后按平均销售额降序排列avg_stats = df.groupby('城市').agg({'销售额': 'mean', '利润': 'mean'})sorted_avg_stats = avg_stats.sort_values(by='销售额', ascending=False)print("n按平均销售额降序排列的城市统计:")print(sorted_avg_stats)

3. 重置索引 (

reset_index()

)

groupby

操作默认会把分组键变成结果DataFrame的索引(或MultiIndex)。虽然这在很多情况下很方便,但有时我们更希望这些分组键作为普通的列存在,方便后续的筛选、合并或其他操作。

reset_index()

就是用来解决这个问题的。

# 按城市和商品分组计算总销售额,并将分组键转为普通列reset_index_example = df.groupby(['城市', '商品'])['销售额'].sum().reset_index()print("n重置索引后的分组聚合结果:")print(reset_index_example)

你也可以在

groupby

时就避免生成索引,通过设置

as_index=False

# 在groupby时就避免生成索引no_index_groupby = df.groupby(['城市', '商品'], as_index=False)['销售额'].sum()print("ngroupby时设置as_index=False的结果:")print(no_index_groupby)

在我看来,

reset_index()

是一个非常实用的操作,尤其是在需要将聚合结果与其他DataFrame进行合并时,或者当你希望将分组键作为普通列进行进一步的筛选或可视化时。它能让你的数据结构更扁平,更易于处理。

Groupby在大型数据集上可能面临的性能瓶颈与优化策略有哪些?

虽然

groupby

功能强大,但在处理非常大的数据集时,我确实遇到过性能瓶颈。了解这些瓶颈并掌握一些优化策略,对于高效地进行数据分析至关重要。

1. 内存消耗

groupby

在内部会创建每个组的视图或副本,尤其是在使用

apply()

时,如果组的数量非常多,或者每个组的数据量很大,这可能会导致大量的内存消耗。我的经验是,当数据集大到一定程度,内存溢出就成了家常便饭。

优化策略:

选择合适的聚合方法: 优先使用内置的聚合函数(如

sum

,

mean

,

count

),它们通常是在C语言层面实现的,效率很高。如果非要用自定义函数,尽量用

agg()

而不是

apply()

,因为

agg()

可以更好地利用Pandas的优化。

提前过滤和选择列: 在进行

groupby

之前,只保留你需要的列,并过滤掉不相关的行。减少数据量是提高性能最直接的方法。

使用

category

dtype: 如果你的分组键(比如“城市”、“商品”)是字符串类型,并且唯一值的数量相对较少,将其转换为

category

dtype可以显著减少内存占用并加速操作。Pandas在处理分类数据时效率更高。

df['城市'] = df['城市'].astype('category')df['商品'] = df['商品'].astype('category')# 再次进行groupby操作,可能会更快

分块处理(Chunking): 对于超大型数据集,如果一次性加载会爆内存,可以考虑将数据分块加载,对每个块进行

groupby

,然后将各块的结果合并。这通常需要一些手动编码,但能有效解决内存问题。

2.

apply()

的性能问题

前面提过,

apply()

虽然灵活,但效率通常不如内置聚合函数和

agg()

。因为它会在Python循环中迭代每个组,并且每次迭代都可能涉及Python和C代码之间的上下文切换。

优化策略:

尽量用

agg()

transform()

替代

apply()

agg()

用于返回每个组的单个聚合值。

transform()

用于返回一个与原始DataFrame形状相同的Series,其中每个值都是其所在组的聚合结果。这在需要将组级统计量“广播”回原始数据时非常有用,比如标准化某个组内的数据。

# 示例:使用transform()计算每个城市的销售额占城市总销售额的比例df['城市销售额占比'] = df.groupby('城市')['销售额'].transform(lambda x: x / x.sum())print("n使用transform()计算城市销售额占比:")print(df)
transform

的效率通常远高于

apply

,因为它能对组内的所有元素同时执行操作,而不需要显式的Python循环。

3. 数据类型不一致

在某些情况下,如果分组键的数据类型不一致(比如混合了字符串和数字),Pandas可能无法有效地优化操作,导致性能下降。确保分组键的数据类型统一且合适,能避免一些不必要的性能开销。

4. 外部库的利用

对于真正的大数据量(GB级别甚至TB级别),Pandas可能就力不从心了。这时,可以考虑使用专门为大数据设计的库:

Dask: Dask提供了与Pandas类似的API,但能够处理超出内存的数据集,并利用多核CPU或分布式集群进行计算。它的

dask.dataframe

模块可以无缝替代Pandas DataFrame。Polars: Polars是一个用Rust编写的DataFrame库,以其卓越的性能和内存效率而闻名,尤其是在处理大型数据集时。它的

groupby

操作通常比Pandas快得多。

在我实际工作中,面对大型数据集,我往往会先尝试优化Pandas本身的用法(如

category

dtype、

transform

),如果还是不行,Dask通常是我的下一个选择,它能让我用熟悉的Pandas语法处理更大的数据。这是一个迭代优化的过程,没有一劳永逸的方案,关键在于理解数据的规模和操作的特性。

以上就是python中怎么用pandas进行分组聚合(groupby)?的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1372175.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 12:06:19
下一篇 2025年12月14日 12:06:31

相关推荐

发表回复

登录后才能评论
关注微信