Pandas DataFrame中实现条件性累积最小值重置

pandas dataframe中实现条件性累积最小值重置

本文详细讲解如何在Pandas DataFrame中根据复杂条件计算一个新列,该列的值是另一列的累积最小值,但在特定条件满足时,累积最小值会重置并从新值开始计算。通过分步解析和代码示例,文章展示了如何利用Pandas的向量化操作(如`shift`、`groupby`、`cumsum`、`cummin`、`where`和`mask`)来高效解决这类带有状态依赖的计算问题,避免了低效的循环,并提供了清晰的逻辑解释。

引言

在数据分析和处理中,我们经常需要对DataFrame中的数据进行累积计算,例如累积求和、累积最大值或累积最小值。然而,当这些累积计算需要根据特定条件进行“重置”时,问题会变得复杂。传统的累积函数通常是全局性的,不直接支持条件性重置。本文将探讨一个具体的场景:创建一个新列 c,它本质上是列 b 的累积最小值 (cummin()),但在满足某个条件时,这个累积最小值会从当前行的新值开始重新计算。

问题描述与示例数据

假设我们有一个Pandas DataFrame,包含两列 a 和 b:

import pandas as pddf = pd.DataFrame(    {        'a': [98, 97, 100, 135, 103, 100, 105, 109, 130],        'b': [100, 103, 101, 105, 110, 120, 101, 150, 160]    })print("原始DataFrame:")print(df)

我们的目标是创建列 c,其计算规则如下:

c 的初始值是 df.b.cummin()。存在一个条件 cond,当 cond 为 True 时,当前行的 c 值应等于当前行的 b 值,并且此后的累积最小值计算应从这个新的 c 值(即当前的 b 值)开始“重置”。原始问题中描述的条件是 df.a.shift(1) > df.c.shift(1)。这个条件引入了一个挑战,因为它依赖于前一行的 c 值,使得直接的向量化计算变得困难。

期望的输出 df 如下所示:

     a    b    c0   98  100  1001   97  103  1002  100  101  1003  135  105  1004  103  110  110  # 这里 'c' 从 100 变为 110,并重置5  100  120  1106  105  101  101  # 这里 'c' 从 110 变为 101,并重置7  109  150  150  # 这里 'c' 从 101 变为 150,并重置8  130  160  150

可以看到,在索引 4、6、7 处,列 c 的值发生了显著变化,并且其后的 cummin 操作似乎从这些新值开始。

解决方案:向量化方法

由于原始条件 df.a.shift(1) > df.c.shift(1) 具有递归性(c 依赖于其自身的前一个值),直接用 apply 或循环虽然可以实现,但在大数据集上效率低下。Pandas提供了强大的向量化工具,我们可以通过巧妙地构建辅助条件和分组操作来模拟这种重置行为。

以下是实现所需逻辑的向量化解决方案:

# 步骤 1: 识别潜在的重置点# 创建一个布尔掩码 m1,标记 b 列值是否小于或等于 a 列的上一行值。# 这捕获了 b 可能开始一个新的累积最小值序列的场景。m1 = df["b"].le(df["a"].shift())# 步骤 2: 计算分组的累积最小值# 使用 m1 的累积和 (cumsum) 来创建分组。# 每当 m1 为 True 时,cumsum 会递增,从而创建一个新的组。# 然后在每个组内计算 b 的累积最小值。cm = df["b"].groupby(m1.cumsum()).cummin()# 步骤 3: 确定何时使用分组累积最小值 (cm) 或重置后的累积最小值# m2 是一个复合条件,用于最终决定 c 列的值来源。# 它检查 b 是否小于或等于 cm,或者 a 的上一行是否小于或等于 cm 的上一行。# 这个条件帮助我们精确地在需要重置时选择 b 的值,否则选择 cm 的值。m2 = (df["b"].le(cm) | df["a"].shift().le(cm.shift()))# 步骤 4: 构建最终的 c 列# 使用 where 和 mask 结合 cm 和 b 的累积最小值。# 如果 m2 为 True,则选择 cm 的值。# 否则(m2 为 False),表示需要重置,此时我们从 b 列中选择值,# 并对其进行累积最小值操作(mask(m2) 使得 m2 为 True 的位置变为 NaN,# 这样 cummin() 就会跳过这些位置,从而实现从非 NaN 处开始的累积最小值)。df["c"] = cm.where(m2, df["b"].mask(m2).cummin())print("n最终DataFrame (包含列 c):")print(df)

详细步骤解析

为了更好地理解上述解决方案,我们逐步分析每个中间变量及其作用。

1. m1 = df[“b”].le(df[“a”].shift())

df[“a”].shift():将 a 列向下移动一行,第一行变为 NaN。df[“b”].le(…):比较 b 列的当前值是否小于或等于 a 列的上一行值。作用:m1 是一个布尔序列,用于标记潜在的“重置点”。当 b 的当前值比 a 的前一个值更小时,可能意味着一个新趋势的开始,从而需要重置累积最小值。

     a    b    a.shift()  m10   98  100        NaN  False1   97  103       98.0  False  (103 <= 98.0) is False2  100  101       97.0  False  (101 <= 97.0) is False3  135  105      100.0  False  (105 <= 100.0) is False4  103  110      135.0   True  (110 <= 135.0) is True5  100  120      103.0  False  (120 <= 103.0) is False6  105  101      100.0  False  (101 <= 100.0) is False7  109  150      105.0  False  (150 <= 105.0) is False8  130  160      109.0  False  (160 <= 109.0) is False

请注意,示例输出中的m1与实际计算结果略有不同,这是因为m1的逻辑可能需要根据实际业务含义进行微调。在提供的解决方案中,m1的目的是创建分组。

2. cm = df[“b”].groupby(m1.cumsum()).cummin()

m1.cumsum():对 m1 进行累积求和。每当 m1 中出现 True(被视为1)时,累积和就会增加1,从而为后续的 groupby 操作创建新的组ID。例如:[False, False, False, False, True, False, False, False, False] 的 cumsum 会是 [0, 0, 0, 0, 1, 1, 1, 1, 1]。df[“b”].groupby(…).cummin():根据 m1.cumsum() 生成的组ID,对 b 列进行分组,并在每个组内计算累积最小值。作用:cm 列表示在由 m1 定义的重置点处重新开始计算的 b 列的累积最小值。

     a    b     m1  m1.cumsum()   cm0   98  100  False            0  1001   97  103  False            0  1002  100  101  False            0  1003  135  105  False            0  1004  103  110   True            1  110  # m1为True,新组开始,cm从110开始5  100  120  False            1  1106  105  101  False            1  101  # 101 < 110,cm更新为1017  109  150  False            1  1018  130  160  False            1  101

3. m2 = (df[“b”].le(cm) | df[“a”].shift().le(cm.shift()))

这是一个复杂的布尔条件,结合了两个子条件:df[“b”].le(cm):b 的当前值是否小于或等于 cm 的当前值。df[“a”].shift().le(cm.shift()):a 的上一行值是否小于或等于 cm 的上一行值。作用:m2 是一个关键的决策掩码,它决定了最终 c 列的值应该来源于 cm(分组累积最小值)还是 df.b.mask(m2).cummin()(在 m2 为 False 的点重置的 b 的累积最小值)。这个条件精确地捕获了何时 cm 的值是有效的,以及何时需要进行更深层次的重置。

     a    b   cm  b.le(cm)  a.shift()  cm.shift()  a.shift().le(cm.shift())   m20   98  100  100      True        NaN         NaN                     False   True1   97  103  100     False       98.0       100.0                      True   True2  100  101  100     False       97.0       100.0                      True   True3  135  105  100     False      100.0       100.0                      True   True4  103  110  110      True      135.0       100.0                     False   True5  100  120  110     False      103.0       110.0                      True   True6  105  101  101      True      100.0       110.0                      True   True7  109  150  101     False      105.0       101.0                     False  False  # b(150)不小于cm(101),a.shift(105)不小于cm.shift(101)8  130  160  101     False      109.0       101.0                     False  False  # b(160)不小于cm(101),a.shift(109)不小于cm.shift(101)

4. df[“c”] = cm.where(m2, df[“b”].mask(m2).cummin())

df[“b”].mask(m2):当 m2 为 True 时,将 df[“b”] 的对应位置替换为 NaN。df[“b”].mask(m2).cummin():对处理后的 b 列计算累积最小值。由于 NaN 会被 cummin 跳过,这 effectively 实现了在 m2 为 False 的点开始新的累积最小值计算。cm.where(m2, …):如果 m2 为 True,则 c 的值为 cm;如果 m2 为 False,则 c 的值为 df[“b”].mask(m2).cummin() 的对应值。作用:这是最终的组合步骤,它根据 m2 的真假,灵活地选择使用分组累积最小值 cm,还是在特定点重置并重新计算的 b 的累积最小值,从而精确地生成所需的 c 列。

完整代码与输出

将所有步骤整合到一起,并打印最终结果:

import pandas as pddf = pd.DataFrame(    {        'a': [98, 97, 100, 135, 103, 100, 105, 109, 130],        'b': [100, 103, 101, 105, 110, 120, 101, 150, 160]    })m1 = df["b"].le(df["a"].shift())cm = df["b"].groupby(m1.cumsum()).cummin()m2 = (df["b"].le(cm) | df["a"].shift().le(cm.shift()))df["c"] = cm.where(m2, df["b"].mask(m2).cummin())print(df)

输出:

     a    b    c0   98  100  1001   97  103  1002  100  101  1003  135  105  1004  103  110  1105  100  120  1106  105  101  1017  109  150  1508  130  160  150

这个输出与期望的输出完全一致。

注意事项

shift() 引入的 NaN:shift() 操作会在第一行(或最后一行,取决于方向)引入 NaN。在布尔比较中,NaN 通常被视为 False,或者需要显式处理(例如使用 fillna())。在这个解决方案中,Pandas 的操作会自动处理这些 NaN,使其行为符合预期。条件复杂性:这个解决方案的巧妙之处在于将原始问题中递归的条件 df.a.shift(1) > df.c.shift(1) 转化为了一系列非递归的向量化操作。m1 和 m2 的设计是解决问题的核心。理解这些布尔掩码的逻辑是掌握此方法的关键。性能:与基于循环的解决方案相比,这种向量化方法在处理大型数据集时具有显著的性能优势,因为它充分利用了Pandas底层C语言的优化。通用性:虽然这个解决方案是针对特定条件设计的,但其核心思想——使用 groupby(mask.cumsum()).cummin() 来实现条件性重置的累积操作,以及使用 where() 和 mask() 进行条件性赋值——是解决类似问题的通用模式。

总结

本文详细介绍了如何在Pandas DataFrame中实现一个复杂的条件性累积最小值重置操作。通过构建辅助布尔掩码 (m1, m2) 和巧妙地结合 groupby(), cumsum(), cummin(), where(), mask() 等Pandas函数,我们成功地将一个看似需要递归或迭代的计算问题转化为了高效的向量化操作。这种方法不仅解决了特定问题,也展示了Pandas在处理复杂数据转换任务时的强大能力和灵活性。掌握这些高级技巧对于进行高效和专业的Python数据分析至关重要。

以上就是Pandas DataFrame中实现条件性累积最小值重置的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1382434.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 23:54:43
下一篇 2025年12月14日 23:54:50

相关推荐

  • 在 Windows 系统中彻底卸载 Python 的专业指南

    本文旨在提供一个全面的指南,帮助用户在 windows 操作系统中彻底卸载 python,解决仅通过控制面板卸载后仍残留版本信息的问题。核心步骤包括通过控制面板卸载主程序、清理相关文件和目录,以及最关键的——细致检查并移除环境变量中所有与 python 相关的路径,包括那些不明显或隐藏的安装源,最后…

    2025年12月14日
    000
  • python对列表进行永久性或临时排序的方法

    Python中排序分临时和永久两种:使用sorted()函数可返回新列表,原列表不变;而list.sort()方法直接修改原列表。两者均支持reverse参数控制升序或降序,并可通过key参数自定义排序规则,如按长度或忽略大小写排序。 Python中对列表排序有两种常见需求:一种是临时排序,不影响原…

    2025年12月14日
    000
  • Python 文件压缩与解压 zipfile 模块

    Python 的 zipfile 模块可创建、读取、解压 ZIP 文件。1. 创建压缩文件用 ZipFile 类写模式,write() 添加文件,支持循环添加多文件及 ZIP_DEFLATED 压缩;2. 读取信息用 namelist() 和 infolist() 查看文件名与详情;3. 解压用 e…

    2025年12月14日
    000
  • Python的scikit-image模块是什么?

    scikit-image 是 Python 中用于图像处理的开源库,支持图像读写、增强、边缘检测、形态学操作、分割、特征提取及几何变换等功能;基于 NumPy 数组设计,与 SciPy、Matplotlib、scikit-learn 等库无缝集成,适用于医学影像、显微图像分析等科研与工业场景,兼具易…

    2025年12月14日
    000
  • python中合并表格的两种方法

    concat()用于简单拼接,merge()用于关联合并。concat按轴方向堆叠或合并数据,适用于结构相同表格的上下或左右拼接;merge基于公共列实现类似SQL的JOIN操作,支持内连接、外连接等模式,适用于不同表间通过键列关联匹配数据。 在Python中处理表格数据时,pandas 是最常用的…

    2025年12月14日
    000
  • Python中如何使用replace()方法实现字符串内部替换?

    replace()方法用于替换字符串中的子串,返回新字符串。语法为str.replace(old, new, count),原字符串不变。示例:将“编程”替换为“读书”,或限制替换次数为2次,还可清理空格和换行符,但仅支持精确匹配,复杂模式需用re.sub()。 在Python中,replace()…

    2025年12月14日
    000
  • python中ruamel.yaml模块是什么?

    ruamel.yaml是Python中增强版YAML处理库,支持YAML 1.2标准,可保留文件原有格式和注释,适用于需频繁修改配置文件的场景。 ruamel.yaml 是 Python 中用于处理 YAML 文件的一个第三方库,它是 PyYAML 的一个增强版本,支持更多 YAML 1.2 标准的…

    2025年12月14日
    000
  • python列表运算详解

    Python列表支持多种运算:1. 用+拼接列表生成新列表;2. 用重复元素生成新列表;3. 通过索引和切片访问或提取子列表;4. +=和=为增强赋值,直接修改原列表;5. in和not in判断成员关系;6. 列表可按字典序比较。掌握这些运算可提升数据处理效率,需注意操作是否改变原列表。 Pyth…

    2025年12月14日
    000
  • python mmap()函数是什么?

    mmap是内存映射文件的方法,通过将文件映射到虚拟内存,使程序能像操作内存一样读写文件。使用时需以二进制模式打开文件,调用mmap.mmap()创建映射,支持随机访问和修改,适用于大文件处理如日志分析、数据库索引等,可提升效率并节省内存。注意映射大小不超过文件长度,操作后及时关闭对象以防资源泄露。 …

    2025年12月14日
    000
  • python中如何用split()函数实现分割字符串?

    split() 用于将字符串按分隔符拆分为列表,默认以空白字符分割,语法为 str.split(separator, maxsplit),可指定分隔符和最大分割次数,不修改原字符串,返回新列表。 在Python中,split() 函数用于将字符串按照指定的分隔符拆分成一个列表。如果未指定分隔符,默认…

    2025年12月14日
    000
  • Python 常见错误类型一览

    Python错误分为三类:1. 语法错误(如缺少冒号、括号不匹配)导致程序无法运行;2. 运行时异常(如NameError、TypeError)在执行中触发,可用try-except捕获;3. 逻辑错误(如条件写反、循环错误)不报错但结果错误,需仔细排查。 Python 编程中常见的错误类型主要分为…

    2025年12月14日
    000
  • Python中Operator计算函数

    operator模块将Python操作符封装为函数,便于在高阶函数中使用。1. 算术运算如add、sub对应+、-;2. 比较运算如eq、lt对应==、 在Python中,operator 模块提供了对常见算术、比较、逻辑等操作的函数化支持。它把像 +、-、== 这样的操作符封装成了函数,方便在高阶…

    2025年12月14日
    000
  • python delattr函数如何使用?

    delattr用于删除对象属性,语法为delattr(object, name),需传入对象和字符串形式的属性名;若属性不存在则抛出AttributeError,可配合hasattr检查避免异常;支持通过循环动态批量删除属性,适用于需动态调整对象结构的场景。 delattr 是 Python 内置函…

    2025年12月14日
    000
  • python中缺少module怎么办?

    缺少module通常因未安装或环境不匹配,需用pip或conda安装并确保python与pip路径一致,使用python -m pip install可避免环境错乱,注意模块安装名与导入名可能不同。 Python中缺少module,通常是因为模块未安装、环境配置问题或路径错误。直接解决方法是确认模块…

    2025年12月14日
    000
  • python对象有几种类型

    Python对象主要分为内置数据类型(如int、str、list、dict)、可变与不可变对象(如list可变,str不可变)、用户自定义类型(如class实例)及函数、模块等特殊对象,一切皆对象,可通过type()查看类型。 Python 中的对象类型可以从多个角度来理解,但通常我们从数据类型和对…

    2025年12月14日
    000
  • Python 异常处理在网络请求中的应用

    答案:Python中通过try-except结构处理网络请求异常,结合重试与日志提升程序稳定性。首先捕获ConnectionError、Timeout、HTTPError等具体异常,再由RequestException兜底;使用tenacity实现重试机制应对临时故障;配合logging记录错误信息…

    2025年12月14日
    000
  • 如何使用python raise抛出异常?

    raise用于主动抛出异常,如raise ValueError(“除数不能为零”);2. 可自定义异常类并抛出,提升代码可读性;3. 支持重新抛出捕获的异常,便于错误传递;4. 应合理选用异常类型并提供清晰提示信息。 在 Python 中,raise 语句用于主动抛出异常。当…

    2025年12月14日
    000
  • python如何将九九乘法表写入到Excel?

    使用pandas和openpyxl可将九九乘法表写入Excel。1. 安装库:pip install pandas openpyxl;2. 用嵌套循环生成下三角乘法数据并存为DataFrame;3. 调用to_excel方法输出到文件“九九乘法表.xlsx”;4. Excel中按行列显示如“3×4=…

    2025年12月14日 好文分享
    000
  • python中Plotly Express是什么?

    Plotly Express 是 Plotly 的高级绘图接口,只需几行代码即可生成散点图、折线图、柱状图等交互式图表。其语法简洁,自动处理颜色、图例和坐标轴标签,例如用一行代码绘制鸢尾花数据集的散点图。它支持多种图表类型,如 px.scatter、px.line、px.bar 等,覆盖常见可视化需…

    2025年12月14日
    000
  • TensorFlow 与 PyTorch 环境搭建常见问题

    先确认显卡驱动支持的CUDA版本,再通过conda或pip安装匹配的框架和cudatoolkit;使用独立虚拟环境避免依赖冲突,确保PyTorch/TensorFlow的CUDA版本与系统一致,可解决GPU无法调用、导入报错等问题。 搭建 TensorFlow 或 PyTorch 深度学习环境时,常…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信