使用tqdm跟踪文件写入与处理进度

使用tqdm跟踪文件写入与处理进度

本文详细介绍了如何利用Python的tqdm库有效地跟踪文件处理(如加密、解密或批量写入)的进度。文章通过自定义迭代器函数,实现了在文件级别而非字节级别对操作总进度进行可视化,解决了传统tqdm示例主要针对下载流式数据的局限性,并提供了清晰的代码示例和集成指导,帮助开发者为文件操作添加直观的进度条。

1. 引言:理解文件处理中的进度跟踪需求

在处理大量文件,例如进行批量加密、解密、格式转换或数据迁移时,我们通常希望能够实时了解操作的进度。python的tqdm库是一个功能强大的进度条工具,广泛用于迭代过程的可视化。然而,其官方示例多集中于网络下载等流式数据的处理,即按字节流更新进度。对于像file.read()一次性读取整个文件内容,然后通过file.write()一次性写入处理后的数据这种场景,传统的tqdm用法(如iter_content)似乎难以直接套用。

本教程旨在解决这一挑战,展示如何通过巧妙的设计,使tqdm能够跟踪文件级别的处理进度,即每完成一个文件的处理,进度条就相应更新。

2. 核心思想:基于文件总量的进度跟踪

为了在文件处理过程中实现进度跟踪,我们需要解决两个关键问题:

确定总进度: 这通常是所有待处理文件的总大小(字节数)。更新进度: 在每个文件处理完成后,将该文件的大小累加到已完成的进度中。

与下载文件时按接收到的字节数实时更新不同,文件处理往往是“一次性”完成一个文件的读取、处理和写入。因此,最直观且易于实现的方式是:将每个文件的处理视为一个独立的“任务单元”,并在该任务单元完成后,更新进度条。

3. 实现细节:自定义迭代器与进度回调

为了实现上述核心思想,我们可以设计两个辅助函数:

3.1 iter_files(folder):遍历并统计文件信息

这个函数负责遍历指定文件夹及其子文件夹中的所有文件,并为每个文件生成其大小和完整路径。这是计算总进度的基础。

import osdef iter_files(folder):    """    遍历指定文件夹及其子文件夹中的所有文件,    并生成每个文件的大小和完整路径。    """    for root, _, files in os.walk(folder):        for file in files:            file_path = os.path.join(root, file)            try:                file_size = os.path.getsize(file_path)                yield file_size, file_path            except OSError as e:                print(f"警告: 无法获取文件大小或访问文件 '{file_path}': {e}")                continue # 跳过无法访问的文件

解释:

os.walk(folder):递归遍历目录树。os.path.join(root, file):构建文件的完整路径。os.path.getsize(file_path):获取文件的大小(字节)。yield file_size, file_path:将文件大小和路径作为元组生成,使其成为一个生成器,节省内存。

3.2 iter_with_progress(folder):集成tqdm进度条

这个函数将tqdm进度条与文件遍历结合起来。它首先利用iter_files计算出所有文件的总大小,然后初始化tqdm进度条。接着,它为每个文件生成一个特殊的“完成回调函数”(done),以及文件的大小和路径。当外部调用者完成对某个文件的处理后,只需调用这个done函数,进度条就会相应更新。

from tqdm import tqdmdef iter_with_progress(folder):    """    为指定文件夹中的文件处理提供tqdm进度条。    初始化进度条,并为每个文件生成一个更新进度的回调函数。    """    # 1. 计算所有文件的总大小作为tqdm的总量    total_size = sum(s for s, _ in iter_files(folder))    # 2. 初始化tqdm进度条    # unit='B' 表示单位是字节    # total=total_size 设置总进度    # unit_scale=True 自动缩放单位(B, KB, MB, GB等)    # unit_divisor=1024 使用1024作为单位换算基数    progress = tqdm(unit='B',                    total=total_size,                    unit_scale=True,                    unit_divisor=1024,                    desc="处理文件")    # 3. 再次遍历文件,并为每个文件提供更新回调    for size, file_path in iter_files(folder):        # 定义一个lambda函数作为回调,当调用时更新进度条        done = lambda current_file_size=size: progress.update(current_file_size)        yield done, size, file_path    # 确保循环结束后关闭进度条    progress.close()

解释:

total_size = sum(s for s, _ in iter_files(folder)):首先调用iter_files来获取所有文件的大小,并求和,得到总进度。tqdm(…):初始化进度条,设置单位为字节(B),总大小为total_size,并启用单位自动缩放。done = lambda current_file_size=size: progress.update(current_file_size):这是一个关键点。它创建了一个闭包,current_file_size捕获了当前文件的大小。当外部代码完成对file_path的处理后,调用done()即可将size累加到进度条上。yield done, size, file_path:生成器每次产出三个值:一个用于更新进度的回调函数、当前文件的大小和路径。progress.close():在所有文件处理完毕后,确保关闭进度条,释放资源。

4. 整合示例:应用于文件加密/解密场景

现在,我们将上述函数整合到实际的文件处理流程中,例如用户最初提到的文件加密/解密场景。

import osimport timefrom base64 import b85encode, b85decode # 导入base85编码/解码函数# 假设的输入目录和输出目录INPUT_DIR = 'test_input_files'OUTPUT_DIR = 'test_output_files'# 创建一些测试文件def create_dummy_files(directory, num_files=5, avg_size_kb=100):    if not os.path.exists(directory):        os.makedirs(directory)    print(f"创建测试文件于: {directory}")    for i in range(num_files):        filename = os.path.join(directory, f"file_{i+1}.txt")        # 生成随机内容        content = os.urandom(avg_size_kb * 1024 // 2 + i * 1024) # 稍微变化大小        with open(filename, 'wb') as f:            f.write(content)    print("测试文件创建完成。")# 确保辅助函数已定义# (这里省略重复定义 iter_files 和 iter_with_progress,假设它们已在上方定义)# ... iter_files 和 iter_with_progress 函数定义 ...def process_files_with_progress(input_folder, output_folder, operation_type='encrypt'):    """    带进度条的文件处理函数(加密或解密)。    """    if not os.path.exists(output_folder):        os.makedirs(output_folder)    print(f"n开始{operation_type}文件...")    for done_callback, file_size, input_file_path in iter_with_progress(input_folder):        relative_path = os.path.relpath(input_file_path, input_folder)        output_file_path = os.path.join(output_folder, relative_path)        # 确保输出目录存在        output_file_dir = os.path.dirname(output_file_path)        if not os.path.exists(output_file_dir):            os.makedirs(output_file_dir)        try:            print(f"n正在处理: {relative_path} ({file_size / 1024:.2f} KB)")            with open(input_file_path, 'rb') as infile:                original_bytes = infile.read()            processed_bytes = b''            if operation_type == 'encrypt':                processed_bytes = b85encode(original_bytes)            elif operation_type == 'decrypt':                processed_bytes = b85decode(original_bytes)            else:                raise ValueError("operation_type 必须是 'encrypt' 或 'decrypt'")            with open(output_file_path, 'wb') as outfile:                outfile.write(processed_bytes)            # 模拟处理时间            # time.sleep(file_size / (1024 * 1024 * 5)) # 模拟每MB处理0.2秒            done_callback() # 关键:文件处理完成后调用回调函数更新进度条            print(f"完成处理: {relative_path}")        except PermissionError:            print(f"r跳过 (权限错误): {relative_path}n")        except Exception as e:            print(f"r处理失败 ({relative_path}): {e}n")    print(f"n所有文件{operation_type}处理完成。")# --- 运行示例 ---if __name__ == "__main__":    # 清理旧目录    import shutil    if os.path.exists(INPUT_DIR):        shutil.rmtree(INPUT_DIR)    if os.path.exists(OUTPUT_DIR):        shutil.rmtree(OUTPUT_DIR)    # 1. 创建测试文件    create_dummy_files(INPUT_DIR, num_files=10, avg_size_kb=500)    # 2. 执行加密操作并显示进度    process_files_with_progress(INPUT_DIR, OUTPUT_DIR + '_encrypted', 'encrypt')    # 3. 模拟解密操作(可选,需要先有加密文件)    # 为了演示,我们将加密后的文件作为解密输入    # process_files_with_progress(OUTPUT_DIR + '_encrypted', OUTPUT_DIR + '_decrypted', 'decrypt')

代码解释:

create_dummy_files:一个辅助函数,用于创建一些随机内容的测试文件,方便演示。process_files_with_progress:接收input_folder、output_folder和operation_type(’encrypt’或’decrypt’)。通过iter_with_progress(input_folder)获取一个迭代器,每次迭代得到done_callback、file_size和input_file_path。在try-except块中执行文件读取、b85encode或b85decode处理,以及文件写入操作。最重要的是: 在outfile.write(processed_bytes)完成之后,调用done_callback()。这将通知tqdm进度条,当前文件已经处理完毕,并将该文件的大小累加到已完成的总量中。包含了基本的错误处理,如PermissionError。

5. 注意事项与总结

进度更新粒度: 本方案的进度更新粒度是“文件级别”。这意味着,对于单个大文件的内部处理(例如,如果加密/解密操作是分块进行的),进度条不会在文件内部实时更新。它只在整个文件处理完毕后才向前推进。如果需要文件内部的字节级进度,则需要更复杂的实现,例如为write操作创建一个自定义的文件类,或者将大文件分块读取和写入,并在每次小块写入后更新tqdm。然而,对于大多数批量文件处理场景,文件级别的进度已经足够提供清晰的用户反馈。错误处理: 在实际应用中,文件操作可能遇到各种错误(如权限不足、磁盘空间不足、文件损坏等)。务必在文件处理逻辑中加入健壮的try-except块,以防止程序崩溃,并确保即使发生错误,进度条也能继续运行(如果跳过该文件)或给出适当的提示。内存考虑: b85encode(encryptingfile.read())这种模式会将整个文件内容读入内存。对于非常大的文件(GB级别),这可能会导致内存溢出。在处理大文件时,建议采用分块读取和写入的策略,并相应调整进度更新逻辑。tqdm参数: tqdm提供了丰富的参数来自定义进度条的显示,例如desc(描述)、ncols(宽度)、bar_format(格式)等。根据需要调整这些参数以优化用户体验。

通过上述方法,我们可以有效地利用tqdm为各种文件处理任务提供直观且专业的进度条,极大地提升了脚本的用户友好性。

以上就是使用tqdm跟踪文件写入与处理进度的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1363385.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 03:23:25
下一篇 2025年12月14日 03:23:34

相关推荐

  • 如何使用 tqdm 监控文件批量读写与处理进度

    本教程详细介绍了如何利用 Python tqdm 库有效监控文件操作进度,特别是在批量处理(如加密/解密)场景下。我们将探讨如何计算总进度并为每个文件操作提供更新回调,从而实现对整个文件处理过程的直观进度条显示,提升用户体验。 引言:理解文件操作进度监控的挑战 在 python 中进行文件操作时,尤…

    好文分享 2025年12月14日
    000
  • 使用tqdm高效跟踪文件写入与目录处理进度

    本文深入探讨了如何利用Python的tqdm库来跟踪文件写入操作的进度,尤其是在处理大型文件或批量处理目录下文件时。我们将介绍两种核心策略:针对单个大文件写入的块级进度跟踪,以及针对整个目录文件处理的宏观进度显示。通过详细的代码示例和解释,读者将学会如何将tqdm集成到文件加密、解密或其他数据转换流…

    2025年12月14日
    000
  • Python tqdm 实践:构建文件处理与写入操作的进度条

    本文深入探讨了如何利用 Python tqdm 库为文件处理和写入操作添加进度条。不同于常见的下载进度追踪,我们将展示一种策略,通过监控文件级别的处理完成情况来更新进度条,特别适用于一次性读取和写入整个文件内容的场景。文章将提供详细的代码示例和实现步骤,帮助开发者在文件加密、转换等任务中实现直观的进…

    2025年12月14日
    000
  • 使用tqdm追踪文件写入进度

    本文详细介绍了如何利用Python的tqdm库来可视化文件操作的进度,特别是针对批量文件处理场景。我们将探讨tqdm在追踪文件写入或处理完成情况时的应用,而非单一写入操作的字节级进度。通过自定义迭代器函数,我们可以有效地聚合文件夹内所有文件的总大小,并以专业、清晰的方式展示处理进度,从而提升用户体验…

    2025年12月14日
    000
  • 解决NumPy中uint8整数溢出导致对数函数返回-inf的问题

    在Python图像处理中,当对uint8类型的NumPy数组应用如log(x + 1)这样的对数函数时,若像素值为255,可能会意外得到-inf结果。这是因为uint8类型在执行255 + 1时会发生整数溢出,导致结果回绕为0,而log(0)则为负无穷。本教程将详细解释这一现象,并提供将数组显式转换…

    2025年12月14日
    000
  • NumPy图像处理:对数变换中的数据类型溢出陷阱与规避

    在NumPy中对图像数据进行对数变换时,若原始图像为uint8类型,np.log(x + 1)运算可能因整数溢出导致x + 1变为0,进而产生-inf结果。这是因为uint8类型255加1会回绕至0。解决方案是在进行对数运算前,将图像数据类型转换为浮点数(如np.float32),以避免溢出,确保计…

    2025年12月14日
    000
  • Google地图评论数据抓取:Playwright问题与Selenium解决方案

    本文旨在解决使用Playwright抓取Google地图评论数据时遇到的不完整问题。核心在于理解动态网页内容加载机制,并提出采用Selenium WebDriver结合显式等待和通用定位策略的解决方案。通过优化元素查找和交互逻辑,确保在页面内容更新后仍能准确、完整地提取数据,提高抓取任务的稳定性和成…

    2025年12月14日
    000
  • 解决NumPy中uint8整数溢出导致对数函数返回负无穷的问题

    在Python中使用NumPy库进行图像处理时,开发者经常会遇到各种数据类型相关的挑战。其中一个常见但容易被忽视的问题是,当对uint8类型的图像数据执行某些数学运算(如对数变换)时,可能会出现意料之外的负无穷(-inf)结果。这通常是由于NumPy数组的特定数据类型(uint8)在执行加法运算时发…

    2025年12月14日
    000
  • Google 地图评论数据抓取:提升稳定性和准确性

    本文旨在解决使用自动化工具抓取 Google 地图评论数据时遇到的不完整或不准确问题,特别是评论平均分和评论数量的抓取遗漏。我们将分析常见原因,并重点介绍如何利用 Selenium 结合动态定位策略和显式等待机制,构建更健壮、更可靠的爬虫,确保数据抓取的完整性和准确性。 1. 问题背景与常见挑战 在…

    2025年12月14日
    000
  • Google Maps数据抓取:提升评论数据抓取鲁棒性的策略与实践

    针对Google Maps评论数据抓取中遇到的不完整问题,本文深入探讨了导致抓取失败的常见原因,特别是动态内容加载和选择器脆弱性。文章提供了使用Playwright等自动化工具进行鲁棒性数据抓取的关键策略,包括优化等待机制、使用更稳定的选择器以及正确处理页面交互,旨在帮助开发者构建高效且可靠的爬虫系…

    2025年12月14日
    000
  • pandas DataFrame 行间除法:计算相邻行的商

    pandas DataFrame 是数据分析和处理的强大工具。在许多场景下,我们需要对 DataFrame 中的数据进行行间计算。本文将介绍如何使用 pandas 计算 DataFrame 中相邻两行的商,并将结果存储在新的一列中。 首先,我们创建一个示例 DataFrame: import pan…

    2025年12月14日
    000
  • 实现分层计算的递归函数

    本文介绍如何使用递归函数来处理分层依赖关系的计算,特别是当计算公式依赖于其他指标时。通过构建指标缩写与ID的字典,并结合 pandas.eval 函数,可以有效地解析和计算复杂的公式,最终得到所需的结果。 在处理具有层级依赖关系的计算问题时,递归函数是一种强大的工具。例如,当一个指标的计算公式依赖于…

    2025年12月14日
    000
  • 使用 CP437 编码打印删除线文本

    本文介绍了如何在支持 CP437 编码的打印机上打印删除线文本。通过使用特定的控制字符 b”xST”,可以在打印机上实现删除线效果,替代了传统方案中无效的字符叠加方法,提供了一种简洁高效的解决方案。 在某些打印场景下,我们需要在打印文本中添加删除线效果。如果打印机使用的是 C…

    2025年12月14日
    000
  • CP437 编码打印机实现删除线文本打印指南

    本文详细阐述了如何在采用 CP437 编码的打印机上实现删除线文本效果。针对常见的 UTF-8 打印机解决方案(如 b”x1bx4c”)和通用控制字符(如 b”x08″)在 CP437 环境下无效的问题,本教程提供了一个专用的字节序列 b”…

    2025年12月14日
    000
  • 如何在CP437编码的打印机上打印删除线文本

    在CP437编码的打印机上打印删除线文本,通常需要使用特定的控制字符。先前尝试的x1bx4c方法,虽然在UTF-8打印机上有效,但在CP437编码下并不适用。同样,退格键x08也无法实现所需的删除线效果。 解决方案:使用xST命令 在CP437编码的打印机上,可以使用xST命令来实现删除线效果。 x…

    2025年12月14日
    000
  • Python多线程环境下上下文管理器内函数调用的监控与管理

    本文深入探讨了在Python中如何监控特定上下文管理器内函数调用的执行情况,并着重解决了多线程环境下全局状态导致的监控混乱问题。通过引入threading.local实现线程局部存储,以及合理使用线程锁,我们构建了一个健壮的解决方案,确保每个线程的监控上下文独立且互不干扰,同时允许子线程的监控数据汇…

    2025年12月14日
    000
  • Python上下文管理器中函数调用的线程安全监控

    本文探讨了如何在Python中利用上下文管理器监控指定函数的执行,记录函数名和执行时间,并确保在嵌套上下文和多线程环境下的数据隔离与准确性。针对全局变量在多线程中引发的上下文交叉监控问题,文章提出了一种基于threading.local和线程锁的解决方案,实现了主线程与子线程各自上下文的独立管理,并…

    2025年12月14日
    000
  • Python多线程环境中上下文内函数调用监控的线程安全实现

    本文探讨了在Python中如何实现上下文内函数调用的监控,并着重解决了多线程环境下的线程安全问题。通过引入threading.local和线程锁,我们设计了一个分离主线程与子线程处理器的方案,确保每个线程的监控上下文独立且数据准确,同时允许主线程的上下文收集所有线程的监控记录,从而实现高效且可靠的函…

    2025年12月14日
    000
  • 在Python多线程上下文中监控函数调用

    在Python多线程环境下,如何实现上下文感知的函数调用监控。针对原始方案中全局状态导致的多线程安全问题,文章详细阐述了利用threading.local实现线程局部存储,以及通过threading.Lock确保共享资源访问的线程安全机制。通过重构监控处理器,确保每个线程拥有独立的上下文列表,同时允…

    2025年12月14日
    000
  • 解决用户安装Python工具的PATH环境变量问题:以Pipenv为例

    当用户通过pip安装Python工具如Pipenv时,常会遇到PATH环境变量未包含其可执行文件路径的警告。本文将详细指导如何通过修改shell配置文件(如~/.bashrc或~/.profile)将用户安装的二进制文件目录添加到系统PATH中,确保工具能够被正确识别和执行。此外,也将提及使用系统包…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信