python中怎么用pandas进行分组聚合(groupby)?(分组.聚合.python.pandas.groupby...)

wufei123 发布于 2025-09-17 阅读(10)
Pandas的groupby通过“分、用、合”实现数据聚合,支持多列分组与复杂聚合,结合filter、sort_values和reset_index可高效处理结果,并可通过优化数据类型、使用Dask等提升大数据性能。

python中怎么用pandas进行分组聚合(groupby)?

Pandas中的

groupby
操作,简单来说,就是将你的数据集根据一个或多个键(列)进行拆分,然后对每个独立的组应用一个函数(比如求和、平均值),最后将这些结果组合起来。它是我在数据分析工作中,处理聚合统计、探索数据模式时,几乎离不开的核心工具。理解并掌握它,能让你对数据有更深层次的洞察。 解决方案

groupby
的核心思想是“分、用、合”(Split-Apply-Combine)。当你需要对数据集中的某个类别或分组进行统计分析时,
groupby
就是你的首选。

首先,你需要一个DataFrame。我们创建一个简单的例子:

import pandas as pd
import numpy as np

data = {
    '城市': ['北京', '上海', '北京', '广州', '上海', '北京'],
    '商品': ['A', 'B', 'A', 'C', 'B', 'C'],
    '销售额': [100, 150, 200, 50, 120, 80],
    '利润': [20, 30, 40, 10, 25, 15]
}
df = pd.DataFrame(data)
print("原始数据:")
print(df)

1. 基本分组聚合

如果你想知道每个城市的总销售额,你可以这样做:

# 按城市分组,计算销售额总和
city_sales = df.groupby('城市')['销售额'].sum()
print("\n按城市分组的总销售额:")
print(city_sales)

这里,

df.groupby('城市')
完成了“分”的步骤,它根据“城市”列的值将DataFrame拆分成了“北京”、“上海”、“广州”三个组。
['销售额'].sum()
则是在每个组上“应用”了求和操作,最后Pandas自动将这些结果“组合”成了一个新的Series。

你也可以对多个列进行聚合,或者使用不同的聚合函数:

# 按城市分组,计算销售额的平均值和利润的最大值
city_stats = df.groupby('城市').agg({
    '销售额': 'mean',
    '利润': 'max'
})
print("\n按城市分组的平均销售额和最大利润:")
print(city_stats)

常用的聚合函数包括:

sum()
(求和),
mean()
(平均值),
median()
(中位数),
min()
(最小值),
max()
(最大值),
count()
(非NaN值的数量),
size()
(组的大小,包含NaN),
std()
(标准差),
var()
(方差)等。你也可以直接传入字符串形式的函数名。

2. 多列分组

如果你想更细致地分析,比如想知道每个城市里,每种商品的销售额总和,那就需要多列分组:

# 按城市和商品分组,计算销售额总和
city_product_sales = df.groupby(['城市', '商品'])['销售额'].sum()
print("\n按城市和商品分组的总销售额:")
print(city_product_sales)

这样会生成一个MultiIndex的Series,非常适合进行多维度的分析。

Pandas Groupby如何实现多列分组与复杂聚合操作?

在实际的数据分析场景中,我们很少只对一个列进行简单的聚合。多列分组是常态,而复杂聚合则意味着我们可能需要对不同的列应用不同的聚合逻辑,甚至自定义聚合函数。

当我们用

df.groupby(['列1', '列2'])
进行多列分组时,Pandas会根据这些列的唯一组合来创建独立的组。这就像是先按“城市”分,再在每个城市内部按“商品”分,形成一个层级结构。结果通常是一个MultiIndex(多级索引)的Series或DataFrame,这在视觉上可能需要一点时间来适应,但它的信息量非常大。

对于复杂聚合,

agg()
方法提供了极大的灵活性。你可以传入一个字典,其中键是你要聚合的列名,值可以是单个聚合函数字符串、函数对象,或者一个包含多个函数字符串/函数对象的列表。
# 示例:对不同列应用不同聚合,并使用多个聚合函数
complex_agg = df.groupby('城市').agg(
    总销售额=('销售额', 'sum'), # 命名聚合,结果列名为“总销售额”
    平均利润=('利润', 'mean'), # 结果列名为“平均利润”
    商品种类=('商品', lambda x: x.nunique()) # 使用lambda表达式自定义聚合:计算商品种类数
)
print("\n复杂聚合操作:")
print(complex_agg)

这里我用了Python的

lambda
表达式来定义一个匿名函数
lambda x: x.nunique()
,它计算了每个组中“商品”列的唯一值数量,这比写一个完整的函数更简洁。这种自定义聚合的能力,让
groupby
变得异常强大。

有时,你可能需要对整个组应用一个更复杂的逻辑,而不仅仅是简单的聚合函数。这时,

apply()
方法就派上用场了。
apply()
会将整个DataFrame的子集(每个组)传递给你的函数。
# 示例:使用apply()查找每个城市销售额最高的商品
def top_product(group):
    return group.loc[group['销售额'].idxmax()]

top_selling_per_city = df.groupby('城市').apply(top_product)
print("\n每个城市销售额最高的商品信息:")
print(top_selling_per_city)

apply()
agg()
更灵活,但通常也更慢,因为它无法像
agg()
那样利用Pandas底层的优化。所以,在能用
agg()
解决问题时,优先选择
agg()
。只有当你的逻辑真的需要访问整个组的结构时,才考虑
apply()
。 处理Groupby结果时,如何高效地筛选、排序与重置索引?

当我们完成分组聚合后,得到的结果往往需要进一步的整理和分析。筛选、排序和重置索引是处理

groupby
结果时最常见的后续操作。

1. 筛选分组后的数据 (

filter()
)

有时候,我们只对满足特定条件的分组结果感兴趣。比如,我们只想看到总销售额超过某个阈值的城市。这时候,

filter()
方法就非常有用。它允许你根据每个组的聚合结果来决定是否保留这个组。
# 筛选出总销售额大于250的城市
filtered_cities = df.groupby('城市').filter(lambda x: x['销售额'].sum() > 250)
print("\n筛选出总销售额大于250的原始数据行:")
print(filtered_cities)

需要注意的是,

filter()
返回的是原始DataFrame中满足条件的行,而不是聚合后的结果。如果你想筛选聚合后的结果,你需要先进行聚合,然后对聚合后的DataFrame进行筛选。
# 先聚合,再筛选聚合结果
agg_result = df.groupby('城市')['销售额'].sum()
high_sales_cities_agg = agg_result[agg_result > 250]
print("\n筛选出总销售额大于250的城市及其总销售额(聚合结果):")
print(high_sales_cities_agg)

2. 排序分组结果 (

sort_values()
)

聚合后的数据通常是按分组键的顺序排列的,但我们可能需要根据聚合值进行排序,以便快速识别最大值或最小值。

# 按城市分组并计算总销售额,然后按销售额降序排列
sorted_city_sales = df.groupby('城市')['销售额'].sum().sort_values(ascending=False)
print("\n按总销售额降序排列的城市:")
print(sorted_city_sales)

如果你的聚合结果是一个DataFrame(比如你使用了多个聚合函数),你可以指定按哪个列进行排序:

Post AI Post AI

博客文章AI生成器

Post AI50 查看详情 Post AI
# 按城市分组,计算销售额和利润的平均值,然后按平均销售额降序排列
avg_stats = df.groupby('城市').agg({'销售额': 'mean', '利润': 'mean'})
sorted_avg_stats = avg_stats.sort_values(by='销售额', ascending=False)
print("\n按平均销售额降序排列的城市统计:")
print(sorted_avg_stats)

3. 重置索引 (

reset_index()
)

groupby
操作默认会把分组键变成结果DataFrame的索引(或MultiIndex)。虽然这在很多情况下很方便,但有时我们更希望这些分组键作为普通的列存在,方便后续的筛选、合并或其他操作。
reset_index()
就是用来解决这个问题的。
# 按城市和商品分组计算总销售额,并将分组键转为普通列
reset_index_example = df.groupby(['城市', '商品'])['销售额'].sum().reset_index()
print("\n重置索引后的分组聚合结果:")
print(reset_index_example)

你也可以在

groupby
时就避免生成索引,通过设置
as_index=False
# 在groupby时就避免生成索引
no_index_groupby = df.groupby(['城市', '商品'], as_index=False)['销售额'].sum()
print("\ngroupby时设置as_index=False的结果:")
print(no_index_groupby)

在我看来,

reset_index()
是一个非常实用的操作,尤其是在需要将聚合结果与其他DataFrame进行合并时,或者当你希望将分组键作为普通列进行进一步的筛选或可视化时。它能让你的数据结构更扁平,更易于处理。 Groupby在大型数据集上可能面临的性能瓶颈与优化策略有哪些?

虽然

groupby
功能强大,但在处理非常大的数据集时,我确实遇到过性能瓶颈。了解这些瓶颈并掌握一些优化策略,对于高效地进行数据分析至关重要。

1. 内存消耗

groupby
在内部会创建每个组的视图或副本,尤其是在使用
apply()
时,如果组的数量非常多,或者每个组的数据量很大,这可能会导致大量的内存消耗。我的经验是,当数据集大到一定程度,内存溢出就成了家常便饭。

优化策略:

  • 选择合适的聚合方法: 优先使用内置的聚合函数(如

    sum
    ,
    mean
    ,
    count
    ),它们通常是在C语言层面实现的,效率很高。如果非要用自定义函数,尽量用
    agg()
    而不是
    apply()
    ,因为
    agg()
    可以更好地利用Pandas的优化。
  • 提前过滤和选择列: 在进行

    groupby
    之前,只保留你需要的列,并过滤掉不相关的行。减少数据量是提高性能最直接的方法。
  • 使用

    category
    dtype: 如果你的分组键(比如“城市”、“商品”)是字符串类型,并且唯一值的数量相对较少,将其转换为
    category
    dtype可以显著减少内存占用并加速操作。Pandas在处理分类数据时效率更高。
    df['城市'] = df['城市'].astype('category')
    df['商品'] = df['商品'].astype('category')
    # 再次进行groupby操作,可能会更快
  • 分块处理(Chunking): 对于超大型数据集,如果一次性加载会爆内存,可以考虑将数据分块加载,对每个块进行

    groupby
    ,然后将各块的结果合并。这通常需要一些手动编码,但能有效解决内存问题。

2.

apply()
的性能问题

前面提过,

apply()
虽然灵活,但效率通常不如内置聚合函数和
agg()
。因为它会在Python循环中迭代每个组,并且每次迭代都可能涉及Python和C代码之间的上下文切换。

优化策略:

  • 尽量用

    agg()
    transform()
    替代
    apply()
    • agg()
      用于返回每个组的单个聚合值。
    • transform()
      用于返回一个与原始DataFrame形状相同的Series,其中每个值都是其所在组的聚合结果。这在需要将组级统计量“广播”回原始数据时非常有用,比如标准化某个组内的数据。
    # 示例:使用transform()计算每个城市的销售额占城市总销售额的比例
    df['城市销售额占比'] = df.groupby('城市')['销售额'].transform(lambda x: x / x.sum())
    print("\n使用transform()计算城市销售额占比:")
    print(df)

    transform
    的效率通常远高于
    apply
    ,因为它能对组内的所有元素同时执行操作,而不需要显式的Python循环。

3. 数据类型不一致

在某些情况下,如果分组键的数据类型不一致(比如混合了字符串和数字),Pandas可能无法有效地优化操作,导致性能下降。确保分组键的数据类型统一且合适,能避免一些不必要的性能开销。

4. 外部库的利用

对于真正的大数据量(GB级别甚至TB级别),Pandas可能就力不从心了。这时,可以考虑使用专门为大数据设计的库:

  • Dask: Dask提供了与Pandas类似的API,但能够处理超出内存的数据集,并利用多核CPU或分布式集群进行计算。它的
    dask.dataframe
    模块可以无缝替代Pandas DataFrame。
  • Polars: Polars是一个用Rust编写的DataFrame库,以其卓越的性能和内存效率而闻名,尤其是在处理大型数据集时。它的
    groupby
    操作通常比Pandas快得多。

在我实际工作中,面对大型数据集,我往往会先尝试优化Pandas本身的用法(如

category
dtype、
transform
),如果还是不行,Dask通常是我的下一个选择,它能让我用熟悉的Pandas语法处理更大的数据。这是一个迭代优化的过程,没有一劳永逸的方案,关键在于理解数据的规模和操作的特性。

以上就是python中怎么用pandas进行分组聚合(groupby)?的详细内容,更多请关注知识资源分享宝库其它相关文章!

相关标签: python go c语言 编码 大数据 app 工具 内存占用 聚合函数 排列 red Python c语言 rust 分布式 pandas 数据类型 count Filter 字符串 循环 Lambda 数据结构 字符串类型 var 对象 transform 数据分析 大家都在看: 使用Pandas和正则表达式高效拆分含混合分隔符的字符串列 使用 Pandas 处理包含千位分隔符和价格分隔符的字符串列 python中怎么用pandas进行分组聚合(groupby)? Python怎么处理pandas中的缺失值(NaN)_pandas缺失值NaN的处理策略 使用Pandas为分组数据补充缺失行:生成完整组合与填充默认值

标签:  分组 聚合 python 

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。