Pandas是一个强大的数据分析库,但其性能表现很大程度上取决于如何使用它。当处理大型数据集时,常见的性能瓶颈往往出现在尝试对DataFrame进行行级迭代和操作时。虽然Python的for循环和Pandas的apply(axis=1)提供了灵活性,但它们通常不是最高效的解决方案,因为它们本质上是基于Python解释器的循环,而非Pandas底层C语言实现的优化操作。
考虑以下场景:我们需要根据df_RoadSegments中的起点ID(RoadSegmentOrigin)从df_Stops中查找对应的经纬度信息,并将其整合到df_RoadSegments中。原始的实现方式可能如下:
import pandas as pd import io # 模拟数据加载 road_segments_data = """RoadSegmentOrigin,RoadSegmentDest,trip_id,planned_duration AREI2,JD4,107_1_D_1,32 JD4,PNG4,107_1_D_1,55 """ stops_data = """stop_id,stop_code,stop_name,stop_lat,stop_lon,zone_id,stop_url AREI2,AREI2,AREIAS,41.1591084955401,-8.55577748652738,PRT3,http://www.stcp.pt/pt/viajar/paragens/?t=detalhe¶gem=AREI2 JD4,JD4,JOÃO DE DEUS,41.1578666104126,-8.55802717966919,PRT3,http://www.stcp.pt/pt/viajar/paragens/?t=detalhe¶gem=JD4 PNG4,PNG4,PORTO NORTE,41.1600000000000,-8.56000000000000,PRT3,http://www.stcp.pt/pt/viajar/paragens/?t=detalhe¶gem=PNG4 """ df_RoadSegments = pd.read_csv(io.StringIO(road_segments_data)) df_Stops = pd.read_csv(io.StringIO(stops_data)) # 辅助函数:根据stop_id查找经纬度 def getstopscoordinates(df_stops, stop_id): df_stop_id = df_stops.loc[df_stops["stop_id"] == stop_id] if not df_stop_id.empty: stop_id_lat = str(df_stop_id["stop_lat"].values[0]) stop_id_lon = str(df_stop_id["stop_lon"].values[0]) stop_id_coord = stop_id_lat + "," + stop_id_lon return stop_id_coord return None # 如果找不到,返回None # 原始的慢速处理方式 # 注意:此代码段仅用于说明问题,不建议在实际生产环境中使用 # for row in df_RoadSegments.head(2).itertuples(): # # 这里的apply(axis=1)会在df_RoadSegments的每一行上重复调用getstopscoordinates # # 并且getstopscoordinates内部又进行了DataFrame查询,效率极低 # df_RoadSegments["OriginCoordinates"] = df_RoadSegments.apply( # lambda x: getstopscoordinates(df_Stops, x["RoadSegmentOrigin"]), axis=1 # ) # print(df_RoadSegments)
上述代码的性能问题在于:
- 外部循环与内部apply(axis=1)的冗余: 即使外部只迭代df_RoadSegments.head(2),内部的df_RoadSegments.apply(...)却会针对df_RoadSegments的所有行执行getstopscoordinates函数。这意味着在每次外部循环迭代中,整个df_RoadSegments都会被重新计算OriginCoordinates列。
- apply(axis=1)的低效: apply(axis=1)本质上是在DataFrame的每一行上执行一个Python函数。对于大型DataFrame,这会产生大量的Python函数调用开销,远不如Pandas的向量化操作高效。
- getstopscoordinates内部的DataFrame查询: 在getstopscoordinates函数内部,df_stops.loc[df_stops["stop_id"] == stop_id] 再次进行了一次DataFrame的条件查询,这在每次函数调用时都会发生,进一步加剧了性能问题。
Pandas提供了强大的向量化操作,能够显著提升数据处理效率。对于这种跨DataFrame的数据查找和整合需求,merge()函数是远比循环和apply(axis=1)更优的选择。
核心思想是:
- 预处理查找表: 将需要查找的数据(df_Stops)预先处理成目标格式。
- 使用merge()进行高效连接: 利用共同的键(stop_id)将两个DataFrame连接起来。
首先,我们可以在df_Stops中预先计算出所需的lat_long字符串。这样,在后续的合并操作中,我们直接使用这个预计算好的列,避免了在合并过程中重复进行字符串拼接。
# 预处理df_Stops,生成lat_long列 df_Stops["lat_long"] = df_Stops[["stop_lat", "stop_lon"]].apply( lambda x: ','.join(map(str, x)), axis=1 ) print("预处理后的df_Stops(部分列):") print(df_Stops[["stop_id", "lat_long"]].head())
这里对df_Stops使用apply(axis=1)来拼接字符串,虽然也是行级操作,但它只在df_Stops这个相对较小的查找表上执行一次,并且只涉及两个列的简单操作,其性能开销远小于在主循环中反复对大DataFrame进行apply。
步骤二:使用merge()连接DataFrame有了预处理好的df_Stops,我们可以使用pd.merge()函数将其与df_RoadSegments连接起来。merge()函数类似于SQL中的JOIN操作,它能够根据一个或多个共同的键将两个DataFrame的行进行匹配。
# 使用merge()连接df_RoadSegments和df_Stops df_RoadSegments_merged = df_RoadSegments.merge( df_Stops[["stop_id", "lat_long"]], # 只选择需要的列进行合并 left_on="RoadSegmentOrigin", # df_RoadSegments中用于匹配的列 right_on="stop_id", # df_Stops中用于匹配的列 how="left" # 左连接,保留df_RoadSegments的所有行 ) # 重命名合并后的列以更清晰地表示其含义 df_RoadSegments_merged = df_RoadSegments_merged.rename(columns={"lat_long": "OriginCoordinates"}) print("\n合并后的df_RoadSegments:") print(df_RoadSegments_merged)
代码解析:
- df_Stops[["stop_id", "lat_long"]]: 我们只选择df_Stops中需要合并的stop_id和lat_long列,以减少内存占用和提高效率。
- left_on="RoadSegmentOrigin": 指定df_RoadSegments中作为连接键的列。
- right_on="stop_id": 指定df_Stops中作为连接键的列。
- how="left": 执行左连接。这意味着df_RoadSegments中的所有行都将被保留,如果RoadSegmentOrigin在df_Stops中没有匹配项,则OriginCoordinates列将填充NaN。
- rename(columns={"lat_long": "OriginCoordinates"}): 将合并后得到的lat_long列重命名为更具描述性的OriginCoordinates,使其与原始需求保持一致。
采用merge()而非循环和apply(axis=1)具有显著的优势:
- 极高的性能: merge()操作在底层使用C语言实现,经过高度优化,能够以远超Python循环的速度处理大量数据。
- 简洁的代码: 减少了代码量,提高了可读性。
- 可扩展性: 随着数据量的增长,merge()的性能衰减远低于基于Python循环的方法。
- Pandas惯用法: 遵循Pandas的“向量化优先”原则,是处理DataFrame数据整合的标准方法。
总结与注意事项:
- 避免行级迭代: 在Pandas中,应尽量避免使用for循环、itertuples()或iterrows()来对DataFrame进行逐行处理,尤其是在循环内部又进行昂贵操作时。
- 优先使用向量化操作: 尽可能利用Pandas内置的向量化函数(如sum(), mean(), 字符串方法str.contains(), 日期时间方法dt.day等)进行数据转换和计算。
- 善用merge()和join(): 对于跨DataFrame的数据查找和整合,merge()和join()是最高效且推荐的方式。
- 预处理和缓存: 对于频繁查找的数据,可以考虑预先处理并存储在一个高效的查找结构中(例如,将查找表设置为索引,或者如本例中预计算目标列)。
通过理解Pandas的底层机制并采纳向量化操作,我们可以编写出更高效、更易维护的数据处理代码,从而充分发挥Pandas的强大功能。
以上就是优化Pandas数据处理:告别慢速循环,拥抱高效Merge的详细内容,更多请关注知识资源分享宝库其它相关文章!
发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。