使用tqdm追踪文件写入进度

使用tqdm追踪文件写入进度

本文详细介绍了如何利用Python的tqdm库来可视化文件操作的进度,特别是针对批量文件处理场景。我们将探讨tqdm在追踪文件写入或处理完成情况时的应用,而非单一写入操作的字节级进度。通过自定义迭代器函数,我们可以有效地聚合文件夹内所有文件的总大小,并以专业、清晰的方式展示处理进度,从而提升用户体验和脚本的实用性。

1. 理解进度条的需求与tqdm的适用性

在进行文件操作,尤其是批量处理文件(如加密、解密、压缩、传输等)时,用户通常希望看到操作的实时进度,而非仅仅等待程序完成。tqdm是一个功能强大且易于使用的python库,能够为循环迭代器添加智能进度条。

原始需求是追踪file.write()操作的进度。然而,需要明确的是,Python的file.write(data)通常是一个原子操作,它一次性将所有数据写入文件。tqdm本身无法在单次write()调用内部追踪字节级别的进度。tqdm更适用于迭代过程,即在每次迭代完成时更新进度。

因此,对于文件操作的进度追踪,更实际和常见的做法是:

追踪多文件的整体处理进度:当处理一个文件夹中的多个文件时,每完成一个文件的处理,就更新一次进度条,累计已处理的文件大小。追踪大文件的分块写入进度:如果一个文件非常大,且其写入操作可以被分解为多次小块写入,那么可以在每次小块写入后更新进度条。

本文将主要聚焦于第一种场景,即如何利用tqdm有效追踪文件夹内多个文件的处理进度。

2. 构建文件迭代器以获取总大小

为了使用tqdm显示总进度,我们首先需要知道所有待处理文件的总大小。这可以通过遍历目标文件夹及其子文件夹中的所有文件来实现。

import osimport timefrom tqdm import tqdmdef iter_files(folder):    """    递归遍历指定文件夹中的所有文件,并生成每个文件的路径和大小。    Args:        folder (str): 待遍历的根文件夹路径。    Yields:        tuple: (文件大小, 文件路径)    """    for root, _, files in os.walk(folder):        for file in files:            file_path = os.path.join(root, file)            # 尝试获取文件大小,如果遇到权限问题或其他错误则跳过            try:                file_size = os.path.getsize(file_path)                yield file_size, file_path            except OSError as e:                print(f"警告: 无法访问文件 {file_path},已跳过。错误: {e}")                continue

iter_files函数是一个生成器,它会逐个返回文件的大小和完整路径。这不仅可以用于计算总大小,也可以作为后续处理的输入。

3. 集成tqdm实现进度追踪

有了获取文件大小的迭代器,我们就可以将其与tqdm结合,创建一个能够追踪整体进度的迭代器。

def iter_with_progress(folder):    """    为指定文件夹中的文件处理过程添加tqdm进度条。    Args:        folder (str): 待处理的根文件夹路径。    Yields:        tuple: (完成回调函数, 文件大小, 文件路径)    """    # 第一次遍历,计算所有文件的总大小    all_files_data = list(iter_files(folder))    total_size = sum(s for s, _ in all_files_data)    # 初始化tqdm进度条    # unit='B' 表示单位是字节    # total=total_size 设置总进度为所有文件总大小    # unit_scale=True 自动缩放单位 (B, KB, MB, GB)    # unit_divisor=1024 使用1024作为单位除数    progress = tqdm(unit='B',                    total=total_size,                    unit_scale=True,                    unit_divisor=1024,                    desc="处理文件") # 进度条描述    for size, file_path in all_files_data:        # 定义一个lambda函数作为“完成回调”,用于在文件处理完成后更新进度条        # 每次调用done(),进度条就会增加当前文件的大小        done = lambda current_file_size=size: progress.update(current_file_size)        yield done, size, file_path    # 确保在所有文件处理完毕后关闭进度条    progress.close()

iter_with_progress函数是核心。它首先通过调用iter_files获取所有文件信息并计算出总大小,然后用这个总大小初始化tqdm进度条。最关键的是,它在每次迭代时返回一个done回调函数。这个done函数是一个闭包,它捕获了当前文件的大小。当外部代码完成对当前文件的处理后,调用done()即可更新进度条。

4. 实际应用示例

现在,我们可以将上述函数应用于一个模拟的文件处理场景,例如文件加密或解密。

# 假设我们有一个名为 'test_data' 的文件夹,里面包含一些文件# 在实际使用中,请替换为您的目标文件夹路径# 例如: target_folder = 'C:UsersYourUserDocumentsMyFiles'# 为了演示,我们创建一个虚拟文件夹和文件if not os.path.exists('test_data'):    os.makedirs('test_data')    with open('test_data/file1.txt', 'w') as f:        f.write('This is file 1 content.' * 100)    with open('test_data/file2.bin', 'wb') as f:        f.write(os.urandom(5000)) # 5KB random data    with open('test_data/file3.log', 'w') as f:        f.write('Log entry' * 200)target_folder = 'test_data' # 替换为你的目标文件夹print(f"开始处理文件夹: {target_folder}")# 遍历并处理文件for done_callback, file_size, file_path in iter_with_progress(target_folder):    print(f"正在模拟处理文件: {os.path.basename(file_path)} ({file_size} 字节)")    # 在这里执行您的实际文件操作,例如加密、解密、复制等    # 为了演示,我们用 time.sleep() 模拟耗时操作    time.sleep(file_size / 10000.0) # 根据文件大小模拟处理时间    # 当文件处理完成后,调用 done_callback 来更新进度条    done_callback()     print(f"文件 {os.path.basename(file_path)} 处理完成。")print("所有文件处理完毕!")# 清理演示文件 (可选)# import shutil# shutil.rmtree('test_data')

在这个示例中,iter_with_progress返回的done_callback在每次文件处理完成后被调用。这使得tqdm能够精确地根据已处理文件的总大小来更新进度条,给用户提供清晰的整体进度反馈。

5. 注意事项与进阶

权限问题:在遍历文件时,可能会遇到权限不足导致无法访问文件的情况。在iter_files函数中,我们已经添加了try-except块来捕获OSError并跳过此类文件,同时打印警告信息。

内存消耗:如果文件夹中包含数百万个小文件,list(iter_files(folder))可能会消耗大量内存来存储所有文件路径和大小。对于极端情况,可以考虑分批处理或更复杂的迭代策略。

单文件内部进度:如前所述,如果需要追踪单个大文件的字节级写入进度(例如,将一个大文件分块写入),你需要修改你的文件写入逻辑,将其分解为多次小块写入,并在每次小块写入后手动调用pbar.update(chunk_size)。例如:

# 示例:追踪大文件分块写入进度# 假设 b85_bytes 是一个非常大的字节串# output_file 是一个已打开的文件对象chunk_size = 1024 * 1024 # 1MBtotal_bytes = len(b85_bytes)with tqdm(total=total_bytes, unit='B', unit_scale=True, desc="写入文件") as pbar:    for i in range(0, total_bytes, chunk_size):        chunk = b85_bytes[i:i + chunk_size]        output_file.write(chunk)        pbar.update(len(chunk))

这种方式更符合原始问题中希望追踪output_file.write(b85_bytes)进度的意图,但它要求你能够将待写入的数据分块。如果b85encode一次性返回所有数据,那么你需要手动将其分块后迭代写入。

6. 总结

tqdm是一个强大的工具,可以显著提升命令行应用程序的用户体验。通过本文介绍的方法,你可以有效地为批量文件处理任务添加专业的进度条。核心思想是计算所有待处理项的总量,并确保在每次处理完成后更新tqdm实例。理解tqdm的工作原理以及其在不同场景下的适用性,是编写高效且用户友好的Python脚本的关键。

以上就是使用tqdm追踪文件写入进度的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1363379.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 03:23:06
下一篇 2025年12月14日 03:23:19

相关推荐

  • 解决NumPy中uint8整数溢出导致对数函数返回-inf的问题

    在Python图像处理中,当对uint8类型的NumPy数组应用如log(x + 1)这样的对数函数时,若像素值为255,可能会意外得到-inf结果。这是因为uint8类型在执行255 + 1时会发生整数溢出,导致结果回绕为0,而log(0)则为负无穷。本教程将详细解释这一现象,并提供将数组显式转换…

    2025年12月14日
    000
  • NumPy图像处理:对数变换中的数据类型溢出陷阱与规避

    在NumPy中对图像数据进行对数变换时,若原始图像为uint8类型,np.log(x + 1)运算可能因整数溢出导致x + 1变为0,进而产生-inf结果。这是因为uint8类型255加1会回绕至0。解决方案是在进行对数运算前,将图像数据类型转换为浮点数(如np.float32),以避免溢出,确保计…

    2025年12月14日
    000
  • 解决NumPy中uint8整数溢出导致对数函数返回负无穷的问题

    在Python中使用NumPy库进行图像处理时,开发者经常会遇到各种数据类型相关的挑战。其中一个常见但容易被忽视的问题是,当对uint8类型的图像数据执行某些数学运算(如对数变换)时,可能会出现意料之外的负无穷(-inf)结果。这通常是由于NumPy数组的特定数据类型(uint8)在执行加法运算时发…

    2025年12月14日
    000
  • Google 地图评论数据抓取:提升稳定性和准确性

    本文旨在解决使用自动化工具抓取 Google 地图评论数据时遇到的不完整或不准确问题,特别是评论平均分和评论数量的抓取遗漏。我们将分析常见原因,并重点介绍如何利用 Selenium 结合动态定位策略和显式等待机制,构建更健壮、更可靠的爬虫,确保数据抓取的完整性和准确性。 1. 问题背景与常见挑战 在…

    2025年12月14日
    000
  • Google Maps数据抓取:提升评论数据抓取鲁棒性的策略与实践

    针对Google Maps评论数据抓取中遇到的不完整问题,本文深入探讨了导致抓取失败的常见原因,特别是动态内容加载和选择器脆弱性。文章提供了使用Playwright等自动化工具进行鲁棒性数据抓取的关键策略,包括优化等待机制、使用更稳定的选择器以及正确处理页面交互,旨在帮助开发者构建高效且可靠的爬虫系…

    2025年12月14日
    000
  • pandas DataFrame 行间除法:计算相邻行的商

    pandas DataFrame 是数据分析和处理的强大工具。在许多场景下,我们需要对 DataFrame 中的数据进行行间计算。本文将介绍如何使用 pandas 计算 DataFrame 中相邻两行的商,并将结果存储在新的一列中。 首先,我们创建一个示例 DataFrame: import pan…

    2025年12月14日
    000
  • 实现分层计算的递归函数

    本文介绍如何使用递归函数来处理分层依赖关系的计算,特别是当计算公式依赖于其他指标时。通过构建指标缩写与ID的字典,并结合 pandas.eval 函数,可以有效地解析和计算复杂的公式,最终得到所需的结果。 在处理具有层级依赖关系的计算问题时,递归函数是一种强大的工具。例如,当一个指标的计算公式依赖于…

    2025年12月14日
    000
  • 使用 CP437 编码打印删除线文本

    本文介绍了如何在支持 CP437 编码的打印机上打印删除线文本。通过使用特定的控制字符 b”xST”,可以在打印机上实现删除线效果,替代了传统方案中无效的字符叠加方法,提供了一种简洁高效的解决方案。 在某些打印场景下,我们需要在打印文本中添加删除线效果。如果打印机使用的是 C…

    2025年12月14日
    000
  • CP437 编码打印机实现删除线文本打印指南

    本文详细阐述了如何在采用 CP437 编码的打印机上实现删除线文本效果。针对常见的 UTF-8 打印机解决方案(如 b”x1bx4c”)和通用控制字符(如 b”x08″)在 CP437 环境下无效的问题,本教程提供了一个专用的字节序列 b”…

    2025年12月14日
    000
  • 如何在CP437编码的打印机上打印删除线文本

    在CP437编码的打印机上打印删除线文本,通常需要使用特定的控制字符。先前尝试的x1bx4c方法,虽然在UTF-8打印机上有效,但在CP437编码下并不适用。同样,退格键x08也无法实现所需的删除线效果。 解决方案:使用xST命令 在CP437编码的打印机上,可以使用xST命令来实现删除线效果。 x…

    2025年12月14日
    000
  • Python多线程环境下上下文管理器内函数调用的监控与管理

    本文深入探讨了在Python中如何监控特定上下文管理器内函数调用的执行情况,并着重解决了多线程环境下全局状态导致的监控混乱问题。通过引入threading.local实现线程局部存储,以及合理使用线程锁,我们构建了一个健壮的解决方案,确保每个线程的监控上下文独立且互不干扰,同时允许子线程的监控数据汇…

    2025年12月14日
    000
  • Python上下文管理器中函数调用的线程安全监控

    本文探讨了如何在Python中利用上下文管理器监控指定函数的执行,记录函数名和执行时间,并确保在嵌套上下文和多线程环境下的数据隔离与准确性。针对全局变量在多线程中引发的上下文交叉监控问题,文章提出了一种基于threading.local和线程锁的解决方案,实现了主线程与子线程各自上下文的独立管理,并…

    2025年12月14日
    000
  • Python多线程环境中上下文内函数调用监控的线程安全实现

    本文探讨了在Python中如何实现上下文内函数调用的监控,并着重解决了多线程环境下的线程安全问题。通过引入threading.local和线程锁,我们设计了一个分离主线程与子线程处理器的方案,确保每个线程的监控上下文独立且数据准确,同时允许主线程的上下文收集所有线程的监控记录,从而实现高效且可靠的函…

    2025年12月14日
    000
  • 在Python多线程上下文中监控函数调用

    在Python多线程环境下,如何实现上下文感知的函数调用监控。针对原始方案中全局状态导致的多线程安全问题,文章详细阐述了利用threading.local实现线程局部存储,以及通过threading.Lock确保共享资源访问的线程安全机制。通过重构监控处理器,确保每个线程拥有独立的上下文列表,同时允…

    2025年12月14日
    000
  • 解决用户安装Python工具的PATH环境变量问题:以Pipenv为例

    当用户通过pip安装Python工具如Pipenv时,常会遇到PATH环境变量未包含其可执行文件路径的警告。本文将详细指导如何通过修改shell配置文件(如~/.bashrc或~/.profile)将用户安装的二进制文件目录添加到系统PATH中,确保工具能够被正确识别和执行。此外,也将提及使用系统包…

    2025年12月14日
    000
  • Python上下文中的函数调用监控与多线程兼容性实现

    本文深入探讨了在Python中监控特定函数调用、记录其执行时间等信息,并将其关联到特定上下文的需求。针对单线程环境中可行但在多线程场景下因全局状态导致的上下文混淆问题,文章详细介绍了如何利用threading.local和线程锁机制,构建一个线程安全的监控处理器,确保每个线程拥有独立的上下文管理,同…

    2025年12月14日
    000
  • 将用户级Python工具目录添加到Linux PATH环境变量的教程

    当用户通过pip install –user安装Python工具(如Pipenv)时,其可执行文件通常位于用户主目录下的.local/bin中,而该路径默认不在系统环境变量PATH中,导致命令无法直接执行。本教程将详细指导如何通过修改shell配置文件(如~/.profile或~/.ba…

    2025年12月14日
    000
  • 解决Linux系统下用户安装程序(如Pipenv)不在PATH环境变量的问题

    本文详细介绍了在Linux系统上,当通过pip install –user等方式将程序(例如Pipenv)安装到用户目录后,如何解决其可执行文件不在系统PATH环境变量中的问题。教程提供了两种主要方法:通过修改~/.bashrc或~/.profile文件来永久添加自定义路径,以及通过系统…

    2025年12月14日
    000
  • 解决Pipenv安装后PATH环境变量配置问题

    本文旨在解决在Linux系统上通过pip install –user方式安装Pipenv后,其可执行文件未自动添加到系统PATH环境变量的问题。文章将详细指导用户如何通过修改shell配置文件(如~/.bashrc或~/.profile)手动配置PATH,确保Pipenv命令可被系统识别…

    2025年12月14日
    000
  • 怎样用Python实现自动化交易?量化投资基础

    用python实现自动化交易的核心在于构建数据驱动的交易系统,其核心步骤包括:1.获取并清洗市场数据;2.开发和验证交易策略;3.进行回测以评估策略表现;4.对接api实现实盘交易;5.执行风险管理;6.持续监控与优化。具体工具方面,pandas和numpy用于数据处理与计算,tushare和aks…

    2025年12月14日 好文分享
    000

发表回复

登录后才能评论
关注微信