Python如何计算移动窗口统计量?rolling函数详解

pandas的rolling()函数用于计算移动窗口统计量,常见聚合操作有1. .mean()计算移动平均值,2. .sum()计算移动总和,3. .std()计算移动标准差,4. .min()/.max()计算极值,5. .count()计算非nan数量,6. .median()计算移动中位数;窗口可定义为固定观测值或时间窗如’3d’、’2h’,且支持自定义函数通过.apply()应用,例如计算窗口范围或非零值计数;处理缺失值时,默认要求窗口内数据点等于window大小才计算,但可通过设置min_periods参数指定最小非nan数量,如设为1则允许窗口内只要有数据即计算,从而减少结果中的nan数量。

Python如何计算移动窗口统计量?rolling函数详解

在Python中处理时间序列或任何顺序数据时,计算移动窗口统计量是家常便饭,它能帮助我们平滑数据、识别趋势或波动。Pandas库中的rolling()函数就是为此而生的核心工具。它能让你定义一个滑动的数据窗口,然后对这个窗口内的数据执行各种聚合操作,比如计算平均值、总和、标准差等等,非常灵活和高效。

Python如何计算移动窗口统计量?rolling函数详解

解决方案

使用Pandas的rolling()函数来计算移动窗口统计量。这个函数通常会链式调用其他聚合方法,例如.mean().sum().std()等。它的核心在于window参数,它定义了窗口的大小。

import pandas as pdimport numpy as np# 创建一个示例Seriesdata = pd.Series(np.random.rand(20) * 100)# 计算5个元素的移动平均值rolling_mean = data.rolling(window=5).mean()print("5个元素的移动平均值:n", rolling_mean)# 计算3个元素的移动和rolling_sum = data.rolling(window=3).sum()print("n3个元素的移动和:n", rolling_sum)# 计算7个元素的移动标准差rolling_std = data.rolling(window=7).std()print("n7个元素的移动标准差:n", rolling_std)# 对于DataFrame,可以在特定列上应用df = pd.DataFrame({'A': np.random.rand(20), 'B': np.random.randint(0, 100, 20)})df['rolling_A_mean'] = df['A'].rolling(window=4).mean()print("nDataFrame上A列的4个元素移动平均值:n", df)

rolling()函数返回一个Rolling对象,这个对象本身不会立即计算结果,而是等待你指定一个聚合函数(如.mean().sum().apply()等)后才进行实际计算。这种设计使得它非常高效,因为它允许你链式地应用不同的聚合逻辑。

立即学习“Python免费学习笔记(深入)”;

Python如何计算移动窗口统计量?rolling函数详解

Pandas rolling()函数的基本用法和常见聚合操作有哪些?

当你拿到一串数据,想看看它在某个时间段或者某个连续序列中的表现时,rolling()函数就显得格外好用。它的基本用法其实挺直观的,就是先用rolling()定义窗口,再跟上你想要的聚合方法。

最基础的,你得告诉rolling()你的窗口有多大,这就是window参数。比如,window=5就意味着每次取最近的5个数据点来计算。这个窗口可以是固定数量的观测值,也可以是时间段(如果你的数据是时间序列的话)。

Python如何计算移动窗口统计量?rolling函数详解

常见的聚合操作,我平时用得最多的无非就是那么几个:

.mean(): 计算移动平均值,这是最常用的,能有效平滑数据,看出趋势。.sum(): 计算移动总和,比如你想知道过去7天的销售额总和。.std(): 计算移动标准差,这能帮你理解数据的波动性,比如股票价格的波动。.min() / .max(): 计算移动最小值/最大值,找出窗口内的极值。.count(): 计算窗口内的非NaN值的数量,这在处理缺失值时挺有用。.median(): 计算移动中位数,对异常值更鲁豫。

举个例子,如果你有一天的每小时温度数据,想看看过去3小时的平均温度,或者过去24小时的最高温度,rolling().mean()rolling().max()就能轻松搞定。

# 延续上面的data Seriesprint("原始数据:n", data.head(10))# 3个元素的移动最小值rolling_min = data.rolling(window=3).min()print("n3个元素的移动最小值:n", rolling_min.head(10))# 4个元素的移动中位数rolling_median = data.rolling(window=4).median()print("n4个元素的移动中位数:n", rolling_median.head(10))

注意,在窗口的初始阶段,也就是数据点不足以填满整个窗口时,rolling()默认会返回NaN。这很正常,毕竟它还没攒够足够的数据来计算完整的窗口统计量。

如何处理移动窗口中的缺失值?min_periods参数有什么用?

处理数据,尤其是真实世界的数据,缺失值总是避不开的话题。在计算移动窗口统计量时,如果窗口内有缺失值,或者窗口一开始数据不够,rolling()的默认行为是返回NaN。这在很多情况下是合理的,因为你可能确实需要一个完整的窗口才能进行有效计算。

但有时候,你可能希望即使窗口内的数据点不足,只要达到某个最小数量,就进行计算。这时,min_periods参数就派上用场了。

min_periods定义了窗口内进行计算所需的最小非NaN观测值数量。

默认行为: 如果不设置min_periods,它的默认值就是window的大小。这意味着,只有当窗口内有足够的数据点(等于window大小)时,才会返回一个非NaN的结果。比如,rolling(window=5).mean(),前4个结果都会是NaN自定义min_periods 如果你设置min_periods=1,那么只要窗口内至少有一个非NaN值,就会进行计算。这在处理时间序列的开头部分特别有用,可以避免过多的NaN值。

举个例子,我经常在处理一些传感器数据时遇到这种情况,数据流刚开始的时候可能不稳定,或者中间偶尔有几秒钟的数据缺失。如果我用min_periods=1,那么即使窗口不完整,我依然能得到一个近似的统计量,这对于实时监控或者快速趋势判断很有帮助。当然,你需要权衡精度和可用性。

# 示例数据,包含一些NaNdata_with_nan = pd.Series([1, 2, np.nan, 4, 5, 6, np.nan, 8, 9, 10])# 窗口大小为3,默认min_periods=3rolling_default_min_periods = data_with_nan.rolling(window=3).mean()print("默认min_periods (3):n", rolling_default_min_periods)# 解释:第一个非NaN值出现在索引2 (4.0),因为它前面有两个NaN,所以第一个有效计算是 (NaN, NaN, 4) -> NaN。# 接着 (NaN, 4, 5) -> NaN。# (4, 5, 6) -> 5.0# (5, 6, NaN) -> NaN# (6, NaN, 8) -> NaN# (NaN, 8, 9) -> NaN# (8, 9, 10) -> 9.0# 窗口大小为3,min_periods=1rolling_custom_min_periods = data_with_nan.rolling(window=3, min_periods=1).mean()print("n自定义min_periods (1):n", rolling_custom_min_periods)# 解释:# [1] -> 1.0# [1, 2] -> 1.5# [2, NaN] -> 2.0 (因为NaN被忽略了,只计算2)# [NaN, 4] -> 4.0# [4, 5] -> 4.5# [4, 5, 6] -> 5.0# [5, 6, NaN] -> 5.5# [6, NaN, 8] -> 7.0# [NaN, 8, 9] -> 8.5# [8, 9, 10] -> 9.0

通过对比你会发现,min_periods极大地影响了结果中NaN的出现位置和数量,这取决于你对数据完整性的要求。

除了固定大小窗口,rolling()还能如何定义窗口?时间窗和自定义函数

rolling()的强大之处远不止于固定数量的观测值窗口。对于时间序列数据,它真正闪耀的地方在于支持“时间窗”定义。这意味着你可以指定一个时间长度,比如“过去7天”或“最近3小时”,而不是“过去5个数据点”。这在处理不规则采样或需要基于实际时间进行分析的数据时,简直是天赐之物。

要使用时间窗,你的Series或DataFrame的索引必须是DatetimeIndexwindow参数这时接受一个字符串,比如'3D'表示3天,'7D'表示7天,'1H'表示1小时等等。Pandas会自动根据时间戳来确定哪些数据点落在当前窗口内。

# 创建一个时间序列数据dates = pd.date_range(start='2023-01-01', periods=15, freq='H')time_series_data = pd.Series(np.random.randint(1, 100, 15), index=dates)print("时间序列数据:n", time_series_data)# 计算2小时的移动平均值rolling_2h_mean = time_series_data.rolling(window='2H').mean()print("n2小时的移动平均值:n", rolling_2h_mean)# 计算5小时的移动总和,最小周期为1rolling_5h_sum = time_series_data.rolling(window='5H', min_periods=1).sum()print("n5小时的移动总和 (min_periods=1):n", rolling_5h_sum)

除了内置的聚合函数,rolling()还支持通过.apply()方法传入自定义函数。这意味着你可以对窗口内的数据执行任何你想要的复杂逻辑。你的自定义函数会接收一个Series或DataFrame的子集作为输入,然后返回一个标量值。这为数据分析提供了极大的灵活性,比如计算窗口内的众数、某个特定百分位数,或者执行更复杂的统计检验。

# 自定义函数:计算窗口内的范围 (最大值 - 最小值)def calculate_range(x):    return x.max() - x.min()# 应用自定义函数rolling_range = time_series_data.rolling(window='3H', min_periods=2).apply(calculate_range)print("n3小时窗口的移动范围 (最大值-最小值):n", rolling_range)# 另一个例子:计算窗口内非零值的计数def count_non_zero(x):    return (x != 0).sum()data_with_zeros = pd.Series([1, 0, 3, 0, 5, 6, 0, 8, 9, 0])rolling_non_zero_count = data_with_zeros.rolling(window=3, min_periods=1).apply(count_non_zero)print("n3个元素窗口的非零值计数:n", rolling_non_zero_count)

通过时间窗和自定义函数,rolling()函数几乎可以满足你在移动窗口统计方面的所有需求,无论是简单的平均值,还是复杂的数据模式识别,它都能提供一个优雅且高效的解决方案。

以上就是Python如何计算移动窗口统计量?rolling函数详解的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1365720.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 04:46:20
下一篇 2025年12月14日 04:46:30

相关推荐

  • 如何使用Dask实现大规模数据的分布式异常检测?

    使用Dask实现大规模数据的分布式异常检测,核心在于它能将传统上受限于单机内存和计算能力的算法,无缝扩展到分布式环境。这使得我们能够处理TB甚至PB级别的数据,而无需担心数据无法载入内存,或是计算耗时过长的问题。它提供了一个与Pandas和NumPy高度兼容的API,让数据科学家能够以熟悉的范式,构…

    2025年12月14日 好文分享
    000
  • Python如何实现基于神经过程的不确定性异常评分?

    基于神经过程的不确定性异常评分通过模型预测的不确定性识别异常,其实现步骤如下:1.数据准备:使用正常样本训练模型以学习正常数据分布。2.模型选择:选择cnp或np,前者简单快速,后者能学习复杂依赖关系。3.模型定义:构建编码器、聚合器(np)和解码器结构。4.损失函数:采用负对数似然(nll)训练模…

    2025年12月14日 好文分享
    000
  • Python网络爬虫:高效提取网页图表悬停数据

    本文探讨了如何高效地从网页图表中提取通常通过鼠标悬停显示的数据。针对使用Selenium进行鼠标悬停操作的局限性,文章提出了一种更优的方案:通过Python的Requests库直接获取网页源代码,并利用正则表达式解析内嵌的JavaScript数据。最后,结合Pandas库对提取的数据进行结构化处理,…

    2025年12月14日
    000
  • Pandas中如何实现数据的滚动聚类?动态分组技巧

    在pandas中实现滚动聚类的核心是使用.rolling()方法。1. 它通过定义一个滑动窗口对数据进行局部聚合,如均值、求和、标准差等;2. 支持整数或时间偏移作为窗口大小,并可通过min_periods设置有效数据点数量;3. 可结合.apply()执行自定义聚合函数;4. 与.groupby(…

    2025年12月14日 好文分享
    000
  • gRPC Python:配置重试策略中的超时时间

    本文介绍了 gRPC Python 中重试策略配置中超时时间的行为。重点说明了 timeout 配置项并非单个重试尝试的超时时间,而是整个交互过程的最大持续时间。同时解释了 gRPC 重试机制的设计理念,即不应人为缩短单次尝试的时间,以提高成功几率。 在 gRPC Python 中,配置重试策略可以…

    2025年12月14日
    000
  • gRPC Python:配置重试机制中的总超时而非单次尝试超时

    正如摘要所述,在 gRPC Python 中,配置的 timeout 并非针对每次重试的超时时间,而是整个 gRPC 调用的总超时时间。这意味着,即使配置了重试策略,每次尝试的总时间加起来也不能超过 timeout 值。 gRPC 的重试机制旨在提高在网络不稳定或服务器偶发性故障情况下的调用成功率。…

    2025年12月14日
    000
  • 配置 gRPC Python 客户端重试机制:理解超时设置

    本文旨在阐明 gRPC Python 客户端中重试机制的超时配置,重点解释 timeout 参数的作用范围,以及为何 gRPC 不支持为每次重试单独设置超时时间。通过本文,你将了解如何正确配置重试策略,并理解其设计背后的考量。 在 gRPC 中,配置客户端的重试行为,可以有效地提高应用程序的健壮性。…

    2025年12月14日
    000
  • 解决sklearn中无法导入PredictionErrorDisplay的问题

    本文旨在帮助读者解决在使用scikit-learn时遇到的ImportError: cannot import name ‘PredictionErrorDisplay’ from ‘sklearn.metrics’错误。该错误通常是由于scikit-…

    2025年12月14日
    000
  • gRPC Python:配置每次重试的超时时间

    本文介绍了在 gRPC Python 中配置重试策略时,超时设置的实际作用。重点说明了 gRPC 重试机制中不存在每次尝试的独立超时时间,而是全局的交互超时时间。解释了为何 gRPC 采用这种设计,并提供了一种变通方法,虽然并不完全等同于每次尝试的超时,但可以控制整体的重试行为。 在 gRPC Py…

    2025年12月14日
    000
  • NumPy argmax 在手写数字分类预测中返回错误索引的调试与修正

    本文针对手写数字分类模型在使用 np.argmax 进行预测时出现索引错误的问题,提供了一种基于图像预处理的解决方案。通过检查图像的灰度转换和输入形状,并结合 PIL 库进行图像处理,可以有效地避免因输入数据格式不正确导致的预测错误,从而提高模型的预测准确性。 在使用深度学习模型进行手写数字分类时,…

    2025年12月14日
    000
  • 连接 MySQL 5.1 数据库的 Python 教程

    本文档旨在指导开发者如何使用 Python 连接到 MySQL 5.1 数据库。由于 MySQL 5.1 较为古老,现代的 MySQL 连接器可能存在兼容性问题。本文将介绍如何使用 mysql-connector-python 驱动,并配置相应的参数,以成功建立连接。同时,本文也强烈建议升级 MyS…

    2025年12月14日
    000
  • Python连接MySQL 5.1:克服旧版认证与字符集兼容性挑战

    本教程详细阐述了如何使用Python 3和mysql.connector库成功连接到老旧的MySQL 5.1数据库。文章重点介绍了解决旧版认证协议和字符集兼容性问题的关键配置,特别是use_pure=True和charset=’utf8’的重要性,并提供了可运行的代码示例。同…

    2025年12月14日
    000
  • 如何使用Pandas进行条件筛选与多维度分组计数

    本文将详细介绍如何使用Pandas库,针对数据集中特定列(如NumericValue)中的缺失值(NaN)进行高效筛选,并在此基础上,根据多个维度(如SpatialDim和TimeDim)进行分组,最终统计满足条件的记录数量。通过实例代码,读者将掌握数据预处理和聚合分析的关键技巧,实现复杂条件下的数…

    2025年12月14日
    000
  • 使用Pandas进行条件筛选与分组计数:处理缺失值

    本文详细介绍了如何使用Pandas库对数据集进行条件筛选,特别是针对NaN(Not a Number)值进行过滤,并在此基础上执行分组统计,计算特定维度组合下的数据条目数量。通过实例代码,读者将学习如何高效地从原始数据中提取有价值的聚合信息,从而解决数据清洗和初步分析中的常见问题。 在数据分析工作中…

    2025年12月14日
    000
  • 使用递归算法生成特定字符串模式:一个Python实现教程

    本文详细阐述了如何利用递归算法生成一个特定规则的字符串模式。通过分析给定示例,我们逐步揭示了该模式的构成规律,包括基础情况和递归关系。教程提供了清晰的Python代码实现,并解释了递归逻辑,帮助读者理解如何将复杂模式分解为更小的、可重复解决的问题,从而高效地构建目标字符串。 引言 在编程中,我们经常…

    2025年12月14日
    000
  • 探索与实现递归字符串模式:pattern(k)函数详解

    本文详细介绍了如何通过观察给定示例,识别并实现一个基于递归的字符串模式生成函数pattern(k)。文章将逐步分析模式规律,包括其终止条件和递归关系,并提供完整的Python代码示例及运行演示,旨在帮助读者理解递归思维在解决此类问题中的应用。 pattern(k)函数概述 在编程实践中,我们经常会遇…

    2025年12月14日
    000
  • Python Tkinter库存系统:优化文件操作与UI响应,避免数据重复

    本教程深入探讨Tkinter应用中条形码生成与文件写入时遇到的常见问题,特别是随机数未更新和文件重复校验失败。核心在于揭示Python文件操作a+模式下读写指针的默认行为,以及全局变量导致的数据僵化。文章将详细阐述如何通过将随机数生成移入事件处理函数、利用file.seek(0)管理文件指针,并推荐…

    2025年12月14日
    000
  • 使用Python和Matplotlib绘制ASCII地震数据图

    本文档将指导您如何使用Python的matplotlib库将地震振幅的ASCII数据转换为可视图形。通过读取、解析和绘制数据,您可以快速有效地将原始数据转化为直观的图表,从而更好地理解地震事件的特征。本文提供了详细的代码示例和步骤说明,帮助您轻松完成数据可视化。 数据准备 首先,确保您已经拥有包含地…

    2025年12月14日
    000
  • 使用 Python 和 Matplotlib 绘制 ASCII 数据

    本文将指导读者如何使用 Python 的 Matplotlib 库,将 ASCII 格式的地震振幅数据转换为可视图形。通过简单的代码示例,展示了数据清洗、转换和绘图的完整流程,帮助读者快速上手处理和可视化此类数据。 在科学研究和工程实践中,经常会遇到以 ASCII 格式存储的数据。这些数据通常需要进…

    2025年12月14日
    000
  • 优化Tkinter库存系统:解决条码生成与文件读写问题

    本文深入探讨了Tkinter库存系统中条码重复生成及文件读写异常的核心问题。通过分析随机数生成位置、文件指针行为和重复性检查逻辑,提供了将随机数生成移入事件处理、正确管理文件读写指针、改进重复性检查机制以及推荐使用JSON等结构化数据存储的综合解决方案。旨在帮助开发者构建更健壮、高效的库存管理应用。…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信