优化Pandas数据处理:告别慢速循环,拥抱高效Merge(慢速.高效.数据处理.拥抱.循环...)

wufei123 发布于 2025-08-29 阅读(6)

优化pandas数据处理:告别慢速循环,拥抱高效merge

本教程探讨了Pandas中常见的性能瓶颈:使用itertuples()和apply(axis=1)进行行级数据处理和数据查找。通过一个实际案例,我们将展示如何利用Pandas的向量化操作和merge()函数,将慢速的循环查找和数据整合过程,转换为高效、简洁且可扩展的数据处理方案,显著提升代码性能和可读性。理解Pandas中的性能瓶颈:行级操作的陷阱

Pandas是一个强大的数据分析库,但其性能表现很大程度上取决于如何使用它。当处理大型数据集时,常见的性能瓶颈往往出现在尝试对DataFrame进行行级迭代和操作时。虽然Python的for循环和Pandas的apply(axis=1)提供了灵活性,但它们通常不是最高效的解决方案,因为它们本质上是基于Python解释器的循环,而非Pandas底层C语言实现的优化操作。

考虑以下场景:我们需要根据df_RoadSegments中的起点ID(RoadSegmentOrigin)从df_Stops中查找对应的经纬度信息,并将其整合到df_RoadSegments中。原始的实现方式可能如下:

import pandas as pd
import io

# 模拟数据加载
road_segments_data = """RoadSegmentOrigin,RoadSegmentDest,trip_id,planned_duration
AREI2,JD4,107_1_D_1,32
JD4,PNG4,107_1_D_1,55
"""
stops_data = """stop_id,stop_code,stop_name,stop_lat,stop_lon,zone_id,stop_url
AREI2,AREI2,AREIAS,41.1591084955401,-8.55577748652738,PRT3,http://www.stcp.pt/pt/viajar/paragens/?t=detalhe&paragem=AREI2
JD4,JD4,JOÃO DE DEUS,41.1578666104126,-8.55802717966919,PRT3,http://www.stcp.pt/pt/viajar/paragens/?t=detalhe&paragem=JD4
PNG4,PNG4,PORTO NORTE,41.1600000000000,-8.56000000000000,PRT3,http://www.stcp.pt/pt/viajar/paragens/?t=detalhe&paragem=PNG4
"""

df_RoadSegments = pd.read_csv(io.StringIO(road_segments_data))
df_Stops = pd.read_csv(io.StringIO(stops_data))

# 辅助函数:根据stop_id查找经纬度
def getstopscoordinates(df_stops, stop_id):
    df_stop_id = df_stops.loc[df_stops["stop_id"] == stop_id]
    if not df_stop_id.empty:
        stop_id_lat = str(df_stop_id["stop_lat"].values[0])
        stop_id_lon = str(df_stop_id["stop_lon"].values[0])
        stop_id_coord = stop_id_lat + "," + stop_id_lon
        return stop_id_coord
    return None # 如果找不到,返回None

# 原始的慢速处理方式
# 注意:此代码段仅用于说明问题,不建议在实际生产环境中使用
# for row in df_RoadSegments.head(2).itertuples():
#     # 这里的apply(axis=1)会在df_RoadSegments的每一行上重复调用getstopscoordinates
#     # 并且getstopscoordinates内部又进行了DataFrame查询,效率极低
#     df_RoadSegments["OriginCoordinates"] = df_RoadSegments.apply(
#         lambda x: getstopscoordinates(df_Stops, x["RoadSegmentOrigin"]), axis=1
#     )
# print(df_RoadSegments)

上述代码的性能问题在于:

  1. 外部循环与内部apply(axis=1)的冗余: 即使外部只迭代df_RoadSegments.head(2),内部的df_RoadSegments.apply(...)却会针对df_RoadSegments的所有行执行getstopscoordinates函数。这意味着在每次外部循环迭代中,整个df_RoadSegments都会被重新计算OriginCoordinates列。
  2. apply(axis=1)的低效: apply(axis=1)本质上是在DataFrame的每一行上执行一个Python函数。对于大型DataFrame,这会产生大量的Python函数调用开销,远不如Pandas的向量化操作高效。
  3. getstopscoordinates内部的DataFrame查询: 在getstopscoordinates函数内部,df_stops.loc[df_stops["stop_id"] == stop_id] 再次进行了一次DataFrame的条件查询,这在每次函数调用时都会发生,进一步加剧了性能问题。
解决方案:利用merge()进行高效数据整合

Pandas提供了强大的向量化操作,能够显著提升数据处理效率。对于这种跨DataFrame的数据查找和整合需求,merge()函数是远比循环和apply(axis=1)更优的选择。

核心思想是:

  1. 预处理查找表: 将需要查找的数据(df_Stops)预先处理成目标格式。
  2. 使用merge()进行高效连接: 利用共同的键(stop_id)将两个DataFrame连接起来。
步骤一:预处理df_Stops,生成目标坐标列

首先,我们可以在df_Stops中预先计算出所需的lat_long字符串。这样,在后续的合并操作中,我们直接使用这个预计算好的列,避免了在合并过程中重复进行字符串拼接。

# 预处理df_Stops,生成lat_long列
df_Stops["lat_long"] = df_Stops[["stop_lat", "stop_lon"]].apply(
    lambda x: ','.join(map(str, x)), axis=1
)

print("预处理后的df_Stops(部分列):")
print(df_Stops[["stop_id", "lat_long"]].head())

这里对df_Stops使用apply(axis=1)来拼接字符串,虽然也是行级操作,但它只在df_Stops这个相对较小的查找表上执行一次,并且只涉及两个列的简单操作,其性能开销远小于在主循环中反复对大DataFrame进行apply。

步骤二:使用merge()连接DataFrame

有了预处理好的df_Stops,我们可以使用pd.merge()函数将其与df_RoadSegments连接起来。merge()函数类似于SQL中的JOIN操作,它能够根据一个或多个共同的键将两个DataFrame的行进行匹配。

# 使用merge()连接df_RoadSegments和df_Stops
df_RoadSegments_merged = df_RoadSegments.merge(
    df_Stops[["stop_id", "lat_long"]],  # 只选择需要的列进行合并
    left_on="RoadSegmentOrigin",        # df_RoadSegments中用于匹配的列
    right_on="stop_id",                 # df_Stops中用于匹配的列
    how="left"                          # 左连接,保留df_RoadSegments的所有行
)

# 重命名合并后的列以更清晰地表示其含义
df_RoadSegments_merged = df_RoadSegments_merged.rename(columns={"lat_long": "OriginCoordinates"})

print("\n合并后的df_RoadSegments:")
print(df_RoadSegments_merged)

代码解析:

  • df_Stops[["stop_id", "lat_long"]]: 我们只选择df_Stops中需要合并的stop_id和lat_long列,以减少内存占用和提高效率。
  • left_on="RoadSegmentOrigin": 指定df_RoadSegments中作为连接键的列。
  • right_on="stop_id": 指定df_Stops中作为连接键的列。
  • how="left": 执行左连接。这意味着df_RoadSegments中的所有行都将被保留,如果RoadSegmentOrigin在df_Stops中没有匹配项,则OriginCoordinates列将填充NaN。
  • rename(columns={"lat_long": "OriginCoordinates"}): 将合并后得到的lat_long列重命名为更具描述性的OriginCoordinates,使其与原始需求保持一致。
性能优势与最佳实践

采用merge()而非循环和apply(axis=1)具有显著的优势:

  • 极高的性能: merge()操作在底层使用C语言实现,经过高度优化,能够以远超Python循环的速度处理大量数据。
  • 简洁的代码: 减少了代码量,提高了可读性。
  • 可扩展性: 随着数据量的增长,merge()的性能衰减远低于基于Python循环的方法。
  • Pandas惯用法: 遵循Pandas的“向量化优先”原则,是处理DataFrame数据整合的标准方法。

总结与注意事项:

  • 避免行级迭代: 在Pandas中,应尽量避免使用for循环、itertuples()或iterrows()来对DataFrame进行逐行处理,尤其是在循环内部又进行昂贵操作时。
  • 优先使用向量化操作: 尽可能利用Pandas内置的向量化函数(如sum(), mean(), 字符串方法str.contains(), 日期时间方法dt.day等)进行数据转换和计算。
  • 善用merge()和join(): 对于跨DataFrame的数据查找和整合,merge()和join()是最高效且推荐的方式。
  • 预处理和缓存: 对于频繁查找的数据,可以考虑预先处理并存储在一个高效的查找结构中(例如,将查找表设置为索引,或者如本例中预计算目标列)。

通过理解Pandas的底层机制并采纳向量化操作,我们可以编写出更高效、更易维护的数据处理代码,从而充分发挥Pandas的强大功能。

以上就是优化Pandas数据处理:告别慢速循环,拥抱高效Merge的详细内容,更多请关注知识资源分享宝库其它相关文章!

标签:  慢速 高效 数据处理 

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。