pandas的drop_duplicates()函数用于删除重复行,默认保留首次出现的记录并返回新DataFrame。通过subset参数可指定列进行去重,keep参数控制保留首条、末条或删除所有重复项,inplace决定是否修改原数据,ignore_index用于重置索引。

pandas库提供了一个极其便利且功能强大的drop_duplicates()函数,它是处理数据集中重复行的核心利器。简单来说,这个函数能根据你设定的规则,识别并移除那些完全相同或在特定列上重复的记录,确保你的数据保持独一无二的干净状态。
解决方案
pandas.DataFrame.drop_duplicates()是你在pandas中删除重复行的主要工具。它的基本用法非常直观,默认情况下会检查DataFrame中的所有列,如果发现某两行或多行在所有列上的值都完全相同,它会保留第一次出现的行,并删除后续的重复行。
让我们看一个基础的例子:
import pandas as pdimport numpy as np# 创建一个包含重复数据的DataFramedata = { 'A': ['foo', 'bar', 'foo', 'bar', 'qux', 'foo'], 'B': ['one', 'one', 'two', 'three', 'two', 'one'], 'C': [1, 2, 1, 3, 2, 1]}df = pd.DataFrame(data)print("原始DataFrame:")print(df)# 使用drop_duplicates()删除重复行# 默认:检查所有列,保留第一次出现的重复行df_deduplicated = df.drop_duplicates()print("n去重后的DataFrame (默认):")print(df_deduplicated)
在这个例子中,('foo', 'one', 1)这行出现了两次,drop_duplicates()默认保留了第一个,移除了第二个。这个函数返回一个新的DataFrame,而不会修改原始DataFrame,除非你明确指定了inplace=True参数。
立即学习“Python免费学习笔记(深入)”;
drop_duplicates()的强大之处在于它的灵活性,通过几个关键参数,你可以精确控制去重行为:
subset: 指定要用于识别重复行的列名列表。keep: 指定保留哪条重复记录,可以是'first'(默认)、'last'或False(删除所有重复项)。inplace: 如果为True,则直接修改原始DataFrame并返回None。ignore_index: 如果为True,则在删除行后重置索引。
如何仅根据部分列进行去重,而不是整行?
很多时候,我们并不是要删除所有列都完全相同的行。比如,你可能有一个用户行为日志,里面记录了用户的每次操作,但你只想知道有哪些“独立用户”访问了某个页面,而不管他们访问了多少次。或者,你可能有一个订单列表,你只想确保每个订单号是唯一的,至于订单的其他细节,只要订单号唯一就行。这时,subset参数就显得尤为重要了。
使用subset参数,你可以传入一个包含列名的列表。drop_duplicates()会只关注这些指定的列,如果这些列的值组合重复了,那么它就认为这是一条重复记录。
# 假设我们只想根据'A'列和'B'列的组合来去重# 比如,我们认为('foo', 'one')这个组合出现多次就算重复df_subset_deduplicated = df.drop_duplicates(subset=['A', 'B'])print("n根据'A'和'B'列去重后的DataFrame:")print(df_subset_deduplicated)# 原始数据# A B C# 0 foo one 1# 1 bar one 2# 2 foo two 1# 3 bar three 3# 4 qux two 2# 5 foo one 1 <-- ('foo', 'one')重复# 结果会保留第一条 ('foo', 'one'),删除第六条
这种用法在处理日志数据、用户会话或者任何需要基于特定标识符进行唯一性判断的场景下都非常实用。它提供了一种精细化的控制,避免了过度删除可能仍有价值的信息。我个人在处理用户画像数据时经常会用到这个,比如确保每个用户ID只对应一条最新的属性记录。
去重时,如何选择保留哪条重复记录?是第一条还是最后一条?
drop_duplicates()的keep参数决定了在遇到重复行时,我们究竟要保留哪一个。这个选择看似简单,但在实际数据处理中却常常需要仔细权衡,因为它直接影响了最终数据集的形态和信息偏向。
keep参数有三个选项:
'first' (默认值): 保留第一次出现的重复行。'last': 保留最后一次出现的重复行。False: 删除所有重复的行,也就是说,如果某行是重复的,那么它所有的副本都会被删除,只有那些完全不重复的行才会被保留下来。
让我们用例子来说明:
# 创建一个包含重复数据的DataFrame,这次我们让重复行有点差异,便于观察data_keep = { 'ID': [1, 2, 1, 3, 2, 1], 'Value': ['A', 'B', 'C', 'D', 'E', 'F'], 'Timestamp': [10, 20, 30, 40, 50, 60] # 模拟时间戳}df_keep = pd.DataFrame(data_keep)print("n原始DataFrame (含时间戳):")print(df_keep)# 根据'ID'列去重,保留第一次出现的记录df_first = df_keep.drop_duplicates(subset=['ID'], keep='first')print("n根据'ID'去重,保留'first':")print(df_first)# ID 1, Value A, Timestamp 10 会被保留# 根据'ID'列去重,保留最后一次出现的记录df_last = df_keep.drop_duplicates(subset=['ID'], keep='last')print("n根据'ID'去重,保留'last':")print(df_last)# ID 1, Value F, Timestamp 60 会被保留# 根据'ID'列去重,删除所有重复的记录 (只有ID=3是唯一的)df_false = df_keep.drop_duplicates(subset=['ID'], keep=False)print("n根据'ID'去重,删除所有重复的记录 (keep=False):")print(df_false)# 只有ID=3的记录会被保留
在实际工作中,keep='first'通常是安全的默认选项,尤其当你只是想获取一个唯一列表时。但如果你的数据有明确的顺序性,比如日志记录或状态更新,并且你希望总是获取最新的信息,那么keep='last'就非常有用。举个例子,如果我有一系列用户状态更新,我通常会用keep='last'来确保我拿到的是用户当前最新的状态。至于keep=False,它在需要严格筛选出“绝对唯一”项的场景下非常有效,比如你想找出那些只出现过一次的异常事件。
去重操作会修改原始DataFrame吗?如何处理索引?
这是一个新手,甚至包括我自己刚开始用pandas时,经常会混淆的问题。默认情况下,drop_duplicates()函数并不会直接修改你原始的DataFrame。它会返回一个新的DataFrame,这个新的DataFrame包含了去重后的数据。这意味着如果你不把它的返回值赋给一个变量(包括原来的变量名),那么你的去重操作就“白做了”,原始DataFrame还是老样子。
# 假设我们有一个DataFramedf_original = pd.DataFrame({'col1': [1, 2, 1], 'col2': ['A', 'B', 'A']})print("原始DataFrame:")print(df_original)# 尝试去重,但不赋值df_original.drop_duplicates()print("n去重操作后,但未赋值的原始DataFrame:")print(df_original) # 发现df_original并没有改变# 正确的做法:将去重结果赋值给一个新变量或覆盖原变量df_deduplicated_new = df_original.drop_duplicates()print("n赋值给新变量后的去重DataFrame:")print(df_deduplicated_new)# 或者,使用inplace=True直接修改原始DataFramedf_original_inplace = pd.DataFrame({'col1': [1, 2, 1], 'col2': ['A', 'B', 'A']})print("n使用inplace=True前的DataFrame:")print(df_original_inplace)df_original_inplace.drop_duplicates(inplace=True)print("n使用inplace=True后的DataFrame:")print(df_original_inplace) # df_original_inplace已被修改
关于索引,drop_duplicates()在删除行后,默认会保留原始行的索引。这意味着如果第0行和第2行是重复的,删除了第2行后,DataFrame的索引可能就不再是连续的了(比如,0, 1, 3, 4…)。在某些情况下,这可能是你想要的,因为它保留了原始数据的“血统”。但更多时候,尤其是在进行后续的数据处理或分析时,一个连续的、重置的索引会更方便。
这时,ignore_index=True参数就派上用场了。当你设置ignore_index=True时,pandas会在删除重复行后,重新生成一个从0开始的、连续的整数索引。
df_indexed = pd.DataFrame({'col1': [1, 2, 1, 3], 'col2': ['A', 'B', 'A', 'C']})print("n去重前,有重复索引的DataFrame:")print(df_indexed)# 默认去重,不重置索引df_default_index = df_indexed.drop_duplicates()print("n默认去重 (索引未重置):")print(df_default_index)# 索引会是 0, 1, 3# 去重并重置索引df_reset_index = df_indexed.drop_duplicates(ignore_index=True)print("n去重并重置索引 (ignore_index=True):")print(df_reset_index)# 索引会是 0, 1
理解inplace和ignore_index这两个参数对于编写健壮且可预测的pandas代码至关重要。我个人的习惯是,除非我明确知道我需要修改原始DataFrame,否则我通常会避免使用inplace=True,而是将结果赋给一个新的变量,这样可以更好地控制数据流,减少意外修改的风险。至于索引,如果后续操作不依赖于原始索引,我通常会选择ignore_index=True,让索引保持整洁。
以上就是python pandas如何删除重复行_pandas drop_duplicates()函数去重方法的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1373301.html
微信扫一扫
支付宝扫一扫