Pandas数据处理:高效筛选重复记录并保留指定数量的最新数据

Pandas数据处理:高效筛选重复记录并保留指定数量的最新数据

本教程旨在指导用户如何高效地从数据集中筛选重复记录,并为每个重复组保留指定数量(例如最后N条)的数据。我们将重点介绍Pandas中简洁高效的groupby().tail()方法,并与PySpark中基于窗口函数的方法进行对比,通过详细代码示例和最佳实践,帮助读者优化数据清洗流程。

问题场景描述

在数据清洗和预处理过程中,我们经常会遇到包含重复记录的数据集。这些重复记录可能基于一个或多个列的组合,但我们往往需要为每个重复组保留特定数量的记录,例如,只保留每个重复组中最新的n条记录。例如,在一个包含用户活动记录的dataframe中,我们可能希望针对每个用户(由first_name, last_name, sex等列定义),只保留其最新的3条活动记录。

假设我们有如下一个DataFrame:

id first_name last_name sex country

01JohnDoeMaleUSA02JohnDoeMaleCanada03JohnDoeMaleMexico04MarkKayMaleItaly05JohnDoeMaleSpain06MarkKayMaleFrance07JohnDoeMalePeru08MarkKayMaleIndia09MarkKayMaleLaos10JohnDoeMaleBenin

目标是基于first_name、last_name和sex列的组合识别重复项,并为每个组合保留最新的3条记录(根据id列的降序)。

基于Pandas的解决方案:使用groupby().tail()

对于在内存中操作的Pandas DataFrame,groupby().tail()方法提供了一种非常简洁且高效的解决方案。

核心思路

排序数据: 首先,确保DataFrame按照定义“最新”的标准进行排序。在我们的例子中,id越大表示越新,因此需要按id升序排序。分组: 按照用于识别重复项的列(例如first_name, last_name, sex)进行分组。选取尾部记录: 对每个分组应用tail(n)方法,这将返回该分组中最后N条记录。由于我们已经提前排序,这些“最后N条”就是我们想要的“最新N条”。

示例代码

import pandas as pd# 原始DataFrame数据data = {    'id': [1, 2, 3, 4, 5, 6, 7, 8, 9, 10],    'first_name': ['John', 'John', 'John', 'Mark', 'John', 'Mark', 'John', 'Mark', 'Mark', 'John'],    'last_name': ['Doe', 'Doe', 'Doe', 'Kay', 'Doe', 'Kay', 'Doe', 'Kay', 'Kay', 'Doe'],    'sex': ['Male', 'Male', 'Male', 'Male', 'Male', 'Male', 'Male', 'Male', 'Male', 'Male'],    'country': ['USA', 'Canada', 'Mexico', 'Italy', 'Spain', 'France', 'Peru', 'India', 'Laos', 'Benin']}df = pd.DataFrame(data)# 1. 根据'id'列对DataFrame进行排序,确保'tail(3)'能获取到最新的3条记录# 如果'id'本身就是递增的,此步骤可确保正确性。df_sorted = df.sort_values(by='id').copy()# 2. 按照指定列进行分组,并为每个组保留最后3条记录result_df = df_sorted.groupby(['first_name', 'last_name', 'sex']).tail(3)# 3. (可选)重置索引,使索引连续result_df = result_df.reset_index(drop=True)# 显示结果DataFrameprint("处理后的DataFrame:")print(result_df)

输出结果:

处理后的DataFrame:   id first_name last_name   sex country0   5       John       Doe  Male   Spain1   6       Mark       Kay  Male  France2   7       John       Doe  Male    Peru3   8       Mark       Kay  Male   India4   9       Mark       Kay  Male    Laos5  10       John       Doe  Male   Benin

基于PySpark的解决方案:使用窗口函数

对于大规模分布式数据集,例如在Apache Spark环境中使用PySpark,groupby().tail()方法不再适用。此时,窗口函数(Window Functions)是实现此功能的标准且高效的方式。

核心思路

定义窗口规范: 使用Window.partitionBy()定义分组的列,并使用orderBy()定义组内排序的列。为了获取“最新”的记录,排序通常是降序(例如,id降序)。生成行号: 在每个分区(即每个重复组)内,根据排序规则为每条记录生成一个行号(row_number())。过滤: 筛选出row_number小于或等于N的记录。

示例代码(PySpark风格)

from pyspark.sql import SparkSessionfrom pyspark.sql import functions as Ffrom pyspark.sql.window import Window# 假设df是一个Spark DataFrame# 这里为了示例,我们创建一个模拟的SparkSession和DataFramespark = SparkSession.builder.appName("FilterDuplicates").getOrCreate()data = [    (1, 'John', 'Doe', 'Male', 'USA'),    (2, 'John', 'Doe', 'Male', 'Canada'),    (3, 'John', 'Doe', 'Male', 'Mexico'),    (4, 'Mark', 'Kay', 'Male', 'Italy'),    (5, 'John', 'Doe', 'Male', 'Spain'),    (6, 'Mark', 'Kay', 'Male', 'France'),    (7, 'John', 'Doe', 'Male', 'Peru'),    (8, 'Mark', 'Kay', 'Male', 'India'),    (9, 'Mark', 'Kay', 'Male', 'Laos'),    (10, 'John', 'Doe', 'Male', 'Benin')]columns = ['id', 'first_name', 'last_name', 'sex', 'country']df_spark = spark.createDataFrame(data, columns)# 定义窗口规范:按first_name, last_name, sex分组,按id降序排序window_spec = Window.partitionBy('first_name', 'last_name', 'sex').orderBy(F.desc('id'))# 为每个分区内的记录生成行号df_with_row_number = df_spark.withColumn('row_number', F.row_number().over(window_spec))# 过滤,只保留行号小于等于3的记录filtered_df_spark = df_with_row_number.filter('row_number <= 3')# 移除辅助列row_numberresult_df_spark = filtered_df_spark.drop('row_number')# 显示结果print("处理后的Spark DataFrame:")result_df_spark.show()spark.stop()

输出结果:

处理后的Spark DataFrame:+---+----------+---------+----+-------+| id|first_name|last_name| sex|country|+---+----------+---------+----+-------+|  5|      John|      Doe|Male|  Spain||  7|      John|      Doe|Male|   Peru|| 10|      John|      Doe|Male|  Benin||  6|      Mark|      Kay|Male| France||  8|      Kay |      Kay|Male|  India||  9|      Mark|      Kay|Male|   Laos|+---+----------+---------+----+-------+

效率与选择考量

Pandas groupby().tail(): 对于数据集能够完全载入内存的情况,groupby().tail()方法通常非常高效且代码简洁。它是Pandas中处理此类问题的首选方法。其内部实现经过高度优化,能够有效处理分组和选择操作。PySpark 窗口函数: 对于大规模分布式数据集,当数据量超出单机内存限制时,PySpark的窗口函数是唯一的选择。虽然代码可能比Pandas版本稍长,但它能在分布式集群上高效执行,避免了数据收集到单个节点的瓶颈。Spark的优化器能够智能地处理窗口操作,确保性能。

注意事项

排序的重要性: 无论是Pandas还是PySpark,定义“最新”或“最旧”的关键在于正确的排序。如果“最新”是基于时间戳,则应按时间戳列排序。如果“最新”是基于某个ID,则按ID排序。性能优化:在Pandas中,如果DataFrame非常大,sort_values()可能会消耗较多内存和时间。确保你的系统有足够的资源。在PySpark中,窗口操作会涉及数据重分区(shuffle),这可能是一个耗时操作。合理选择partitionBy的列,避免创建过多或过少的分区,有助于优化性能。reset_index(): 在Pandas中,groupby().tail()操作会保留原始索引。如果需要一个从0开始的连续索引,记得调用reset_index(drop=True)。

总结

本文详细介绍了在数据处理中,如何根据特定分组筛选重复记录并保留指定数量(N)的最新数据。对于内存中的数据集,Pandas的df.sort_values().groupby().tail(N)组合方法提供了一个简洁高效的解决方案。而对于分布式大数据集,PySpark的窗口函数(Window.partitionBy().orderBy().row_number())则是实现相同逻辑的标准且高性能途径。理解这两种方法的适用场景和实现原理,能帮助开发者根据实际需求选择最合适的工具和策略,从而高效地完成数据清洗任务。

以上就是Pandas数据处理:高效筛选重复记录并保留指定数量的最新数据的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1370212.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 10:20:45
下一篇 2025年12月14日 10:20:53

相关推荐

  • 数据帧中高效筛选重复项并保留最新N条记录的教程

    本教程旨在解决数据分析中常见的挑战:如何从Pandas DataFrame中高效地筛选出基于特定列的重复项,并仅保留每组重复项中的最新N条记录。我们将探讨一种简洁且性能优越的方法,即利用groupby().tail()组合操作,并提供详细的代码示例与性能考量,以帮助读者在处理大规模数据集时做出最佳选…

    2025年12月14日
    000
  • 列表推导式(List Comprehension)和生成器表达式(Generator Expression)的区别。

    列表推导式立即生成完整列表并占用较多内存,而生成器表达式按需生成值、内存占用小,适合处理大数据;前者适用于需多次访问或索引的场景,后者更高效于单次遍历和数据流处理。 列表推导式和生成器表达式的核心区别在于它们如何处理内存和何时生成值:列表推导式会立即在内存中构建并存储一个完整的列表,而生成器表达式则…

    2025年12月14日
    000
  • 如何解决背包问题?

    动态规划是解决0/1背包问题的核心方法,通过构建dpi表示前i件物品在容量j下的最大价值,利用状态转移方程dpi = max(dpi-1, v[i] + dpi-1])逐层求解,最终得到dpn为最优解;该方法时间复杂度O(nW),空间复杂度可优化至O(W);相比贪心算法仅适用于分数背包、回溯法效率低…

    2025年12月14日
    000
  • 代码规范:PEP 8 规范你了解多少?

    PEP 8是Python代码风格指南,核心在于提升可读性与一致性,推荐使用4空格缩进、79字符行长、规范命名,并通过Flake8、Black、isort等工具自动化检查与格式化,结合pre-commit钩子确保代码质量,虽存在行长度限制等争议,但其核心精神是团队共识与代码美学的统一。 PEP 8是P…

    2025年12月14日
    000
  • 数据帧重复记录筛选:高效保留指定数量的最新数据

    本教程详细探讨如何在数据帧中高效处理重复记录,并仅保留每组重复项中的指定数量(例如,最新的N条)。文章将介绍两种主流的数据处理工具:Pandas的groupby().tail()方法和PySpark的窗口函数。通过具体的代码示例和解释,帮助读者理解并应用这些技术,以优化数据清洗和预处理流程,特别是在…

    2025年12月14日
    000
  • Pandas DataFrame 中高效去除重复项并保留指定数量的最新记录

    本文档旨在介绍如何使用 Pandas DataFrame 有效地过滤掉重复项,并为每个重复组保留指定数量的最新记录。我们将演示如何根据特定列识别重复项,并利用 groupby() 和 tail() 函数实现高效的数据筛选,特别适用于大型数据集。 在数据分析和处理中,经常需要处理包含重复项的数据集。 …

    2025年12月14日
    000
  • Python中的深拷贝与浅拷贝有什么区别?

    深拷贝和浅拷贝的核心区别在于对嵌套对象的处理:浅拷贝仅复制对象顶层结构,共享嵌套对象引用,修改嵌套内容会影响原对象;深拷贝则递归复制所有层级对象,创建完全独立的副本,互不影响。Python中通过copy.copy()实现浅拷贝,适用于不可变嵌套或需共享数据的场景;copy.deepcopy()实现深…

    2025年12月14日
    000
  • Python中的元类(Metaclass)是什么?有什么使用场景?

    元类是Python中用于创建类的“类”,它通过继承type并重写__new__方法,在类定义时拦截创建过程,实现属性注入、结构验证、自动注册等功能,如为类自动添加version或表名;相比类装饰器的后处理,元类介入更早、控制更深,适用于强制契约或框架级设计,但应避免过度使用以防止复杂难维护。 Pyt…

    2025年12月14日
    000
  • Python的自省(Introspection)能力指的是什么?

    Python自省指程序运行时检查对象类型、属性、方法的能力,核心应用场景包括框架开发(如Django自动发现模型)、调试(inspect获取栈帧、源码)、元编程(动态创建类、生成代码)。inspect模块提供getmembers、getsource、signature等函数,可获取成员信息、源代码、…

    2025年12月14日
    000
  • 如何按值对字典进行排序?

    按值排序字典需用sorted()结合items()和key参数,结果为列表,可转回有序字典。 在Python中,字典本身在3.7版本之前是无序的,之后虽然保留了插入顺序,但它并不是一个按值排序的数据结构。要实现按值排序,我们通常需要将字典转换为一个可排序的序列,比如一个包含键值对元组的列表,然后利用…

    2025年12月14日
    000
  • Selenium Edge WebDriver 初始化最佳实践与常见错误解析

    本教程详细解析了Selenium中初始化Edge WebDriver时常见的AttributeError问题,指出直接传递驱动路径字符串的旧有方式不再适用。文章介绍了两种现代且推荐的解决方案:一是利用webdriver_manager库实现驱动自动管理,二是利用Selenium 4.6.0及以上版本…

    2025年12月14日
    000
  • 如何在Python模拟中实现粒子云动画而非轨迹追踪

    本文详细介绍了如何在Python物理模拟中,利用Matplotlib的FuncAnimation功能,将粒子动画从轨迹线改为离散的粒子云效果。通过调整绘图参数、优化动画播放速度以及实现动画保存,教程将帮助读者创建更直观、专业的粒子系统动态展示。 1. 引言:粒子动画的挑战与目标 在物理模拟中,可视化…

    2025年12月14日
    000
  • 谈谈你对RESTful API的理解并用Flask实现一个简单的GET/POST接口。

    RESTful API是一种以资源为中心、利用HTTP协议实现的轻量级设计风格。它强调URI标识资源、统一接口(GET/POST/PUT/DELETE)、无状态通信、客户端-服务器分离、可缓存性和分层系统,使API更直观、可扩展。与RPC/SOAP不同,RESTful不关注操作方法,而是通过标准HT…

    2025年12月14日
    000
  • 屏蔽 Google Cloud Error Reporting 中的冗余错误

    屏蔽 Google Cloud Error Reporting 中的冗余错误 Google Cloud Error Reporting (GCR) 是一个强大的工具,可以帮助开发者监控和调试应用程序。然而,在使用 FastAPI 等框架构建应用程序并部署到 Google Cloud Run 时,GC…

    2025年12月14日
    000
  • 如何重载Python运算符?

    Python通过魔术方法实现运算符重载,如__add__、__mul__等,使自定义类支持+、*等操作,需注意类型检查、行为一致性及可读性,适用于向量、矩阵等数学对象,提升代码简洁性与直观性。 Python 运算符重载,简单来说,就是让你自定义类的对象能够使用像 + , – , * , [] 这样的…

    2025年12月14日
    000
  • Flask 重定向与 after_request:优化请求后处理逻辑

    本文探讨了Flask应用中,当路由涉及重定向且需要执行请求后(after_request)处理时可能遇到的挑战。针对多个after_request装饰器导致的执行顺序混乱或“卡住”问题,教程提出并演示了将所有请求后逻辑合并到一个集中式处理函数中的解决方案,通过request.endpoint精确匹配…

    2025年12月14日
    000
  • 使用BeautifulSoup提取HTML文本段落并识别高亮状态

    本文详细介绍了如何利用Python的BeautifulSoup库解析HTML文本,以精确地提取其中的文本片段,同时保持其原始顺序,并识别哪些片段属于特定类别的高亮元素。通过结合find_all(string=True)方法遍历所有文本节点和find_parent()方法检查父元素,我们能够高效地构建…

    2025年12月14日
    000
  • 利用BeautifulSoup有序提取HTML文本并识别特定元素

    本文旨在指导读者如何使用Python的BeautifulSoup库从HTML内容中精确提取文本片段,同时保持其在文档中的原始顺序,并识别这些片段是否被特定的HTML元素(如具有特定class的标签)所包裹。通过结合find_all(string=True)和find_parent()方法,我们将展示…

    2025年12月14日
    000
  • PostgreSQL SERIALIZABLE隔离级别:告别误解,掌握其工作原理

    PostgreSQL的SERIALIZABLE隔离级别旨在确保并发事务的执行结果等同于某种串行执行,从而避免所有并发异常。它并非将事务物理上串行化,而是通过检测并阻止可能破坏串行等效性的操作来维护数据一致性。理解其核心在于“串行等效性”而非“串行执行”,这对于正确设计和调试高并发应用至关重要。 1.…

    2025年12月14日
    000
  • 什么是SQL注入?如何在Python中避免?

    SQL注入危险且易导致数据泄露或系统瘫痪,其发生源于用户输入被直接拼接进SQL语句;正确防范方式是使用参数化查询或ORM框架,如Python中sqlite3的?占位符或SQLAlchemy等ORM工具,确保用户输入被视为数据而非代码,从而彻底隔离风险。 SQL注入是一种非常危险的数据库安全漏洞,它允…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信