Pandas数据帧中高效筛选N个重复项并保留最后N条记录

Pandas数据帧中高效筛选N个重复项并保留最后N条记录

本教程将探讨如何在Pandas数据帧中高效处理重复数据,具体目标是针对指定列的重复组,仅保留每组的最后N条记录。我们将介绍并演示使用groupby().tail()方法的简洁实现,该方法对于在内存中处理中等规模数据集时,能提供比基于行号的窗口函数更直观和高效的解决方案。

问题描述与背景

在数据处理过程中,我们经常会遇到需要从数据集中筛选重复记录的场景。有时,我们并非要完全删除所有重复项,而是希望为每个重复组保留特定数量的记录,例如最新的n条或按某种顺序排列的最后n条记录。

考虑一个包含用户交易记录或日志条目的数据帧,其中first_name、last_name和sex可能存在大量重复,但id和country是唯一的。我们的目标是,对于每个相同的first_name、last_name和sex组合,只保留其对应的最后3条记录(通常根据id或其他时间戳字段来定义“最后”)。

原始数据帧示例如下:

id first_name last_name sex country

01JohnDoeMaleUSA02JohnDoeMaleCanada03JohnDoeMaleMexico04MarkKayMaleItaly05JohnDoeMaleSpain06MarkKayMaleFrance07JohnDoeMalePeru08MarkKayMaleIndia09MarkKayMaleLaos10JohnDoeMaleBenin

期望结果是,对于John Doe Male和Mark Kay Male这两个重复组,分别只保留其最后3条记录:

id first_name last_name sex country

05JohnDoeMaleSpain06MarkKayMaleFrance07JohnDoeMalePeru08MarkKayMaleIndia09MarkKayMaleLaos10JohnDoeMaleBenin

对于大规模数据集,尤其是在分布式计算环境如Spark中,一种常见的解决方案是使用窗口函数(Window.partitionBy().orderBy().row_number())来为每个组内的记录分配行号,然后筛选出小于等于N的记录。这种方法在Spark中是标准且高效的,但在Pandas中,我们有更简洁且同样高效的替代方案。

Pandas groupby().tail() 方法详解

Pandas库提供了一个非常直观且高效的方法groupby().tail(n)来解决上述问题。它允许我们对数据帧进行分组,然后从每个组的末尾选择指定数量的记录。

核心思想

df.groupby(by_columns).tail(n)的工作原理是:

根据by_columns指定的列将数据帧分成若干个组。对于每个独立的分组,从其末尾(即最后)选取n条记录。将这些选取的记录合并成一个新的数据帧。

需要注意的是,tail()方法中的“末尾”是基于当前数据帧的行顺序。因此,如果“最后N条”的定义是基于某个特定字段(例如时间戳或ID)的最新记录,那么在应用groupby().tail()之前,对数据帧进行相应的排序是至关重要的一步。

实现步骤

以下是使用Pandas groupby().tail() 方法的详细实现步骤:

导入必要的库:首先,我们需要导入pandas库。

创建示例数据帧:为了演示,我们使用与问题描述中相同的数据来构建一个Pandas DataFrame。

数据排序(关键步骤):由于我们希望保留“最后3条”记录,并且这个“最后”是基于id列的递增顺序来定义的,因此在执行分组和选择操作之前,必须先根据id列对整个数据帧进行升序排序。这确保了在每个组内,tail(3)操作会正确地选择具有最大id值的3条记录。

应用 groupby() 和 tail():使用groupby()方法指定分组的键(first_name, last_name, sex),然后链式调用tail(3)来保留每个组的最后3条记录。

重置索引(可选):groupby().tail()操作会保留原始数据帧的索引。如果需要一个从0开始的连续新索引,可以调用reset_index(drop=True)。

示例代码

import pandas as pd# 1. 创建示例数据帧data = {    'id': [1, 2, 3, 4, 5, 6, 7, 8, 9, 10],    'first_name': ['John', 'John', 'John', 'Mark', 'John', 'Mark', 'John', 'Mark', 'Mark', 'John'],    'last_name': ['Doe', 'Doe', 'Doe', 'Kay', 'Doe', 'Kay', 'Doe', 'Kay', 'Kay', 'Doe'],    'sex': ['Male', 'Male', 'Male', 'Male', 'Male', 'Male', 'Male', 'Male', 'Male', 'Male'],    'country': ['USA', 'Canada', 'Mexico', 'Italy', 'Spain', 'France', 'Peru', 'India', 'Laos', 'Benin']}df = pd.DataFrame(data)print("原始数据帧:")print(df)print("-" * 30)# 2. 排序数据帧:确保 '最后N条' 是根据 'id' 的最新值# 如果不排序,tail(3)会根据原始输入顺序的最后3行来取df_sorted = df.sort_values(by='id', ascending=True)# 3. 使用 groupby().tail() 保留每个组的最后3条记录# 分组键为 'first_name', 'last_name', 'sex'# tail(3) 表示保留每个组的最后3行result_df = df_sorted.groupby(['first_name', 'last_name', 'sex']).tail(3)# 4. 重置索引(可选,使索引从0开始连续)result_df = result_df.reset_index(drop=True)print("n筛选后的数据帧 (保留每个重复组的最后3条记录):")print(result_df)

输出结果

运行上述代码将得到以下输出:

原始数据帧:   id first_name last_name   sex country0   1       John       Doe  Male     USA1   2       John       Doe  Male  Canada2   3       John       Doe  Male  Mexico3   4       Mark       Kay  Male   Italy4   5       John       Doe  Male   Spain5   6       Mark       Kay  Male  France6   7       John       Doe  Male    Peru7   8       Mark       Kay  Male   India8   9       Mark       Kay  Male    Laos9  10       John       Doe  Male   Benin------------------------------筛选后的数据帧 (保留每个重复组的最后3条记录):   id first_name last_name   sex country0   5       John       Doe  Male   Spain1   6       Mark       Kay  Male  France2   7       John       Doe  Male    Peru3   8       Mark       Kay  Male   India4   9       Mark       Kay  Kay   Laos5  10       John       Doe  Male   Benin

方法比较与适用场景

Pandas groupby().tail():

优点: 代码简洁,易于理解和实现。对于在内存中能够处理的数据集(通常是中等规模),其执行效率非常高。避免了显式创建额外的行号列,减少了中间步骤。适用场景: 适用于数据量可以在单机内存中处理的场景,或者作为数据探索和预处理的快速方法。

Spark 窗口函数 (row_number()):

优点: 专为分布式计算设计,能够高效处理PB级别的大规模数据集。是Spark中处理此类分组排序筛选问题的标准和推荐方法。适用场景: 适用于需要处理超出单机内存容量的超大规模数据集,或在Hadoop/Spark集群环境中进行数据处理的场景。

选择建议:如果您正在使用Pandas处理数据,并且数据集大小适中(能够完全载入内存),那么groupby().tail()无疑是实现此目标的最佳选择,它提供了简洁性和高效性。如果您在分布式环境(如Spark)中工作,并且数据量巨大,那么使用Spark的窗口函数是更合适的策略。

注意事项

排序的重要性: 再次强调,如果“最后N条”的定义依赖于某个特定字段的顺序(例如时间戳、ID等),则在应用groupby().tail()之前,务必对数据帧进行相应的排序。否则,tail()将根据数据帧当前的物理顺序来选取行。性能考量: 尽管groupby().tail()在Pandas中效率很高,但Pandas本身是基于内存的库。对于数十GB甚至TB级别的数据,即使使用此方法,也可能遇到内存限制。在这种情况下,分布式计算框架(如Spark)是不可避免的选择。head() 与 tail(): 与tail(n)类似,Pandas也提供了groupby().head(n)方法,用于保留每个分组的前N条记录。根据具体需求,可以选择使用head()或tail()。

总结

通过本教程,我们学习了如何在Pandas数据帧中高效地筛选出每个重复组的最后N条记录。df.sort_values().groupby().tail(n).reset_index(drop=True)这一组合操作提供了一个简洁而强大的解决方案,尤其适用于在内存中处理中等规模数据集的场景。理解其背后的原理以及排序的重要性,将帮助您更灵活、更高效地进行数据清洗和预处理工作。在面对不同规模和环境的数据时,选择合适的工具和方法是数据处理成功的关键。

以上就是Pandas数据帧中高效筛选N个重复项并保留最后N条记录的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1370214.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 10:20:48
下一篇 2025年12月14日 10:21:11

相关推荐

  • 解决 PyInstaller “命令未识别” 错误的完整指南

    本文旨在解决使用 PyInstaller 创建可执行文件时遇到的“pyinstaller 命令未识别”错误。我们将深入探讨该错误发生的根本原因,主要围绕系统环境变量 PATH 的配置,并提供详细的解决方案,包括在虚拟环境中激活 PyInstaller以及在系统层面调整 PATH 变量的方法,确保您能…

    好文分享 2025年12月14日
    000
  • Pandas数据处理:高效筛选重复记录并保留指定数量的最新数据

    本教程旨在指导用户如何高效地从数据集中筛选重复记录,并为每个重复组保留指定数量(例如最后N条)的数据。我们将重点介绍Pandas中简洁高效的groupby().tail()方法,并与PySpark中基于窗口函数的方法进行对比,通过详细代码示例和最佳实践,帮助读者优化数据清洗流程。 问题场景描述 在数…

    2025年12月14日
    000
  • 数据帧中高效筛选重复项并保留最新N条记录的教程

    本教程旨在解决数据分析中常见的挑战:如何从Pandas DataFrame中高效地筛选出基于特定列的重复项,并仅保留每组重复项中的最新N条记录。我们将探讨一种简洁且性能优越的方法,即利用groupby().tail()组合操作,并提供详细的代码示例与性能考量,以帮助读者在处理大规模数据集时做出最佳选…

    2025年12月14日
    000
  • 代码规范:PEP 8 规范你了解多少?

    PEP 8是Python代码风格指南,核心在于提升可读性与一致性,推荐使用4空格缩进、79字符行长、规范命名,并通过Flake8、Black、isort等工具自动化检查与格式化,结合pre-commit钩子确保代码质量,虽存在行长度限制等争议,但其核心精神是团队共识与代码美学的统一。 PEP 8是P…

    2025年12月14日
    000
  • 数据帧重复记录筛选:高效保留指定数量的最新数据

    本教程详细探讨如何在数据帧中高效处理重复记录,并仅保留每组重复项中的指定数量(例如,最新的N条)。文章将介绍两种主流的数据处理工具:Pandas的groupby().tail()方法和PySpark的窗口函数。通过具体的代码示例和解释,帮助读者理解并应用这些技术,以优化数据清洗和预处理流程,特别是在…

    2025年12月14日
    000
  • Pandas DataFrame 中高效去除重复项并保留指定数量的最新记录

    本文档旨在介绍如何使用 Pandas DataFrame 有效地过滤掉重复项,并为每个重复组保留指定数量的最新记录。我们将演示如何根据特定列识别重复项,并利用 groupby() 和 tail() 函数实现高效的数据筛选,特别适用于大型数据集。 在数据分析和处理中,经常需要处理包含重复项的数据集。 …

    2025年12月14日
    000
  • Python中的元类(Metaclass)是什么?有什么使用场景?

    元类是Python中用于创建类的“类”,它通过继承type并重写__new__方法,在类定义时拦截创建过程,实现属性注入、结构验证、自动注册等功能,如为类自动添加version或表名;相比类装饰器的后处理,元类介入更早、控制更深,适用于强制契约或框架级设计,但应避免过度使用以防止复杂难维护。 Pyt…

    2025年12月14日
    000
  • Python的自省(Introspection)能力指的是什么?

    Python自省指程序运行时检查对象类型、属性、方法的能力,核心应用场景包括框架开发(如Django自动发现模型)、调试(inspect获取栈帧、源码)、元编程(动态创建类、生成代码)。inspect模块提供getmembers、getsource、signature等函数,可获取成员信息、源代码、…

    2025年12月14日
    000
  • 如何按值对字典进行排序?

    按值排序字典需用sorted()结合items()和key参数,结果为列表,可转回有序字典。 在Python中,字典本身在3.7版本之前是无序的,之后虽然保留了插入顺序,但它并不是一个按值排序的数据结构。要实现按值排序,我们通常需要将字典转换为一个可排序的序列,比如一个包含键值对元组的列表,然后利用…

    2025年12月14日
    000
  • Selenium Edge WebDriver 初始化最佳实践与常见错误解析

    本教程详细解析了Selenium中初始化Edge WebDriver时常见的AttributeError问题,指出直接传递驱动路径字符串的旧有方式不再适用。文章介绍了两种现代且推荐的解决方案:一是利用webdriver_manager库实现驱动自动管理,二是利用Selenium 4.6.0及以上版本…

    2025年12月14日
    000
  • 谈谈你对RESTful API的理解并用Flask实现一个简单的GET/POST接口。

    RESTful API是一种以资源为中心、利用HTTP协议实现的轻量级设计风格。它强调URI标识资源、统一接口(GET/POST/PUT/DELETE)、无状态通信、客户端-服务器分离、可缓存性和分层系统,使API更直观、可扩展。与RPC/SOAP不同,RESTful不关注操作方法,而是通过标准HT…

    2025年12月14日
    000
  • 屏蔽 Google Cloud Error Reporting 中的冗余错误

    屏蔽 Google Cloud Error Reporting 中的冗余错误 Google Cloud Error Reporting (GCR) 是一个强大的工具,可以帮助开发者监控和调试应用程序。然而,在使用 FastAPI 等框架构建应用程序并部署到 Google Cloud Run 时,GC…

    2025年12月14日
    000
  • 如何重载Python运算符?

    Python通过魔术方法实现运算符重载,如__add__、__mul__等,使自定义类支持+、*等操作,需注意类型检查、行为一致性及可读性,适用于向量、矩阵等数学对象,提升代码简洁性与直观性。 Python 运算符重载,简单来说,就是让你自定义类的对象能够使用像 + , – , * , [] 这样的…

    2025年12月14日
    000
  • Flask 重定向与 after_request:优化请求后处理逻辑

    本文探讨了Flask应用中,当路由涉及重定向且需要执行请求后(after_request)处理时可能遇到的挑战。针对多个after_request装饰器导致的执行顺序混乱或“卡住”问题,教程提出并演示了将所有请求后逻辑合并到一个集中式处理函数中的解决方案,通过request.endpoint精确匹配…

    2025年12月14日
    000
  • 使用BeautifulSoup提取HTML文本段落并识别高亮状态

    本文详细介绍了如何利用Python的BeautifulSoup库解析HTML文本,以精确地提取其中的文本片段,同时保持其原始顺序,并识别哪些片段属于特定类别的高亮元素。通过结合find_all(string=True)方法遍历所有文本节点和find_parent()方法检查父元素,我们能够高效地构建…

    2025年12月14日
    000
  • 利用BeautifulSoup有序提取HTML文本并识别特定元素

    本文旨在指导读者如何使用Python的BeautifulSoup库从HTML内容中精确提取文本片段,同时保持其在文档中的原始顺序,并识别这些片段是否被特定的HTML元素(如具有特定class的标签)所包裹。通过结合find_all(string=True)和find_parent()方法,我们将展示…

    2025年12月14日
    000
  • PostgreSQL SERIALIZABLE隔离级别:告别误解,掌握其工作原理

    PostgreSQL的SERIALIZABLE隔离级别旨在确保并发事务的执行结果等同于某种串行执行,从而避免所有并发异常。它并非将事务物理上串行化,而是通过检测并阻止可能破坏串行等效性的操作来维护数据一致性。理解其核心在于“串行等效性”而非“串行执行”,这对于正确设计和调试高并发应用至关重要。 1.…

    2025年12月14日
    000
  • 什么是SQL注入?如何在Python中避免?

    SQL注入危险且易导致数据泄露或系统瘫痪,其发生源于用户输入被直接拼接进SQL语句;正确防范方式是使用参数化查询或ORM框架,如Python中sqlite3的?占位符或SQLAlchemy等ORM工具,确保用户输入被视为数据而非代码,从而彻底隔离风险。 SQL注入是一种非常危险的数据库安全漏洞,它允…

    2025年12月14日
    000
  • Python BeautifulSoup:按序提取HTML文本及高亮标识

    本教程详细介绍如何使用Python的BeautifulSoup库,从HTML文本中高效提取所有文本段落,并准确识别哪些段落被特定标签(如class=’highlight’)包裹,同时严格保持文本在原始HTML中的出现顺序。通过迭代所有文本节点并检查其父元素,实现精确的数据结构…

    2025年12月14日
    000
  • 如何用Python实现一个LRU缓存?

    答案:LRU缓存通过字典和双向链表结合实现,字典提供O(1)查找,双向链表维护访问顺序,确保插入、删除和访问更新均为O(1)操作。每次get或put操作都会将对应节点移至链表头部,当缓存满时,尾部节点被移除,从而保证最久未使用项优先淘汰。虚拟头尾节点简化边界处理,而OrderedDict虽可替代实现…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信