Python中如何实现文件压缩?zipfile模块使用

要使用python压缩文件或文件夹,可通过zipfile模块实现。1. 压缩单个或多个文件时,使用zipfile对象的write()方法,并可选arcname参数控制压缩包内路径和名称;2. 压缩整个文件夹需结合os.walk()遍历目录结构,并逐个添加文件至zip包中,确保保留原始目录结构;3. 控制压缩路径通过arcname参数实现,控制压缩级别则通过compression和compresslevel参数设置,常用方式为zip_deflated并可选0-9的压缩等级。上述方法覆盖了从简单文件打包到复杂目录归档及压缩级别的全面需求。

Python中如何实现文件压缩?zipfile模块使用

在Python中,要实现文件或文件夹的压缩,zipfile模块无疑是首选工具。它提供了一套相当完善的接口,能够让你轻松创建、读取和解压ZIP格式的归档文件。用它来打包数据、分发程序,或者仅仅是节省存储空间,都非常方便和可靠。

Python中如何实现文件压缩?zipfile模块使用

解决方案

使用zipfile模块进行文件压缩,最核心的操作是创建ZipFile对象并调用其write()方法。通常,我们会结合上下文管理器with语句来确保文件句柄的正确关闭,这是一种非常好的编程习惯。

import zipfileimport os# 假设我们有一些文件需要压缩file_to_compress_1 = 'example_file_1.txt'file_to_compress_2 = 'example_file_2.log'# 创建一些示例文件with open(file_to_compress_1, 'w') as f:    f.write("这是第一个示例文件的内容。n")    f.write("多行文本测试。")with open(file_to_to_compress_2, 'w') as f:    f.write("这是第二个示例文件的日志内容。n")    f.write("一些运行记录。")output_zip_name = 'my_archive.zip'try:    with zipfile.ZipFile(output_zip_name, 'w', zipfile.ZIP_DEFLATED) as zf:        # 压缩单个文件        zf.write(file_to_compress_1, arcname='renamed_file_in_zip.txt') # arcname可以指定在zip中的路径和名称        # 压缩另一个文件        zf.write(file_to_to_compress_2) # 不指定arcname,则保留原文件名    print(f"文件 '{file_to_compress_1}' 和 '{file_to_to_compress_2}' 已成功压缩到 '{output_zip_name}'。")except Exception as e:    print(f"压缩过程中发生错误: {e}")finally:    # 清理示例文件    if os.path.exists(file_to_compress_1):        os.remove(file_to_compress_1)    if os.path.exists(file_to_to_compress_2):        os.remove(file_to_to_to_compress_2)    # 如果压缩失败,可能没有生成zip文件,这里不做强制删除    # if os.path.exists(output_zip_name):    #     os.remove(output_zip_name)

这段代码展示了最基本的压缩操作,它创建了一个名为my_archive.zip的ZIP文件,并将两个示例文件添加进去。其中一个文件使用了arcname参数,这在我看来,是个非常实用的功能,它允许你在不改变源文件名的前提下,控制文件在ZIP包中的显示名称和路径。

立即学习“Python免费学习笔记(深入)”;

Python中如何实现文件压缩?zipfile模块使用

如何压缩单个文件或多个文件到ZIP包?

压缩单个文件或多个文件到ZIP包,其实都是通过ZipFile对象的write()方法来完成的。这个方法接收两个主要参数:filename(要压缩的源文件路径)和可选的arcname(文件在ZIP包中的路径和名称)。

当你只想把几个零散的文件打包时,可以像这样:

Python中如何实现文件压缩?zipfile模块使用

import zipfileimport os# 假设有这些文件files_to_pack = ['document.txt', 'image.jpg', 'data.csv']# 创建示例文件for f_name in files_to_pack:    with open(f_name, 'w') as f:        f.write(f"这是 {f_name} 的内容。")output_zip = 'my_documents.zip'try:    with zipfile.ZipFile(output_zip, 'w', zipfile.ZIP_DEFLATED) as zf:        for file_path in files_to_pack:            if os.path.exists(file_path):                # 直接写入,文件在zip中保持原名                zf.write(file_path)            else:                print(f"文件 '{file_path}' 不存在,跳过。")    print(f"文件已成功打包到 '{output_zip}'。")except Exception as e:    print(f"打包文件时出错: {e}")finally:    for f_name in files_to_pack:        if os.path.exists(f_name):            os.remove(f_name)

这里我没有用arcname,文件在压缩包里的名字会和源文件名一样。但如果你想把document.txt放到ZIP包里的一个名为docs/的子文件夹下,同时改名为report.txt,你就可以写zf.write('document.txt', arcname='docs/report.txt')。这灵活性,我个人觉得是zipfile的一大亮点,特别是在需要精细控制归档结构的时候。

如何压缩整个文件夹及其子内容?

压缩整个文件夹,包括其内部的所有文件和子文件夹,就不能简单地用write()方法了。因为write()只能处理单个文件。这时候,你需要借助os模块的os.walk()函数来遍历目录树,然后逐一将文件添加到ZIP包中。这听起来可能有点复杂,但实际操作起来,逻辑还是挺清晰的。

import zipfileimport osdef compress_folder(folder_path, output_zip_path):    if not os.path.isdir(folder_path):        print(f"错误:'{folder_path}' 不是一个有效的文件夹路径。")        return    try:        with zipfile.ZipFile(output_zip_path, 'w', zipfile.ZIP_DEFLATED) as zf:            for root, dirs, files in os.walk(folder_path):                # root 当前目录路径                # dirs 当前目录下的子目录列表                # files 当前目录下的文件列表                # 计算当前文件或目录在zip文件中的相对路径                # 这一步很关键,确保zip内部结构与源文件夹结构一致                relative_path = os.path.relpath(root, folder_path)                if relative_path == '.': # 如果是根目录本身                    relative_path = ''                for file in files:                    file_full_path = os.path.join(root, file)                    # 构建文件在zip中的路径                    arcname = os.path.join(relative_path, file) if relative_path else file                    zf.write(file_full_path, arcname=arcname)                    print(f"正在压缩: {file_full_path} -> {arcname}")                # 也可以选择性地添加空目录,zipfile默认不会添加空目录                # for dir_name in dirs:                #     dir_full_path = os.path.join(root, dir_name)                #     arcname_dir = os.path.join(relative_path, dir_name) if relative_path else dir_name                #     if not os.listdir(dir_full_path): # 如果是空目录                #         zf.writestr(arcname_dir + '/', '') # 添加空目录项        print(f"文件夹 '{folder_path}' 已成功压缩到 '{output_zip_path}'。")    except Exception as e:        print(f"压缩文件夹时发生错误: {e}")# --- 示例用法 ---# 创建一个示例文件夹结构test_folder = 'my_project_data'os.makedirs(os.path.join(test_folder, 'src'), exist_ok=True)os.makedirs(os.path.join(test_folder, 'docs'), exist_ok=True)os.makedirs(os.path.join(test_folder, 'empty_dir'), exist_ok=True) # 示例空目录with open(os.path.join(test_folder, 'main.py'), 'w') as f:    f.write("print('Hello from main.py')")with open(os.path.join(test_folder, 'src', 'helper.py'), 'w') as f:    f.write("def help_func(): pass")with open(os.path.join(test_folder, 'docs', 'README.md'), 'w') as f:    f.write("# My Project Readme")output_zip_file = 'project_archive.zip'compress_folder(test_folder, output_zip_file)# 清理示例文件夹import shutilif os.path.exists(test_folder):    shutil.rmtree(test_folder)if os.path.exists(output_zip_file):    print(f"生成的ZIP文件 '{output_zip_file}' 存在。")    # os.remove(output_zip_file) # 可以选择删除

这里面最让人头疼的,可能就是arcname的构建了。os.path.relpath(root, folder_path)的作用是获取当前遍历到的root目录相对于原始folder_path的相对路径。这样,ZIP文件内部的结构就能完美地镜像源文件夹的结构。我个人在处理这类问题时,经常会因为arcname没处理好,导致压缩包里的文件路径不对劲,所以这块确实需要多加注意。

压缩时如何控制文件路径和压缩级别?

控制文件在ZIP包中的路径,主要是通过write()方法的arcname参数来实现的。前面已经多次提及,它允许你指定文件在压缩包内的名称和相对路径。

至于压缩级别,zipfile模块提供了几种选择,主要是在创建ZipFile对象时通过compression参数来设置。最常用的有:

zipfile.ZIP_STORED:不进行压缩,只是存储文件。这是最快的,但文件大小不会减小。zipfile.ZIP_DEFLATED:使用DEFLATE算法进行压缩。这是默认且最常用的压缩方式,效果通常不错。

此外,对于ZIP_DEFLATED,你还可以通过compresslevel参数来进一步微调压缩级别,它的值通常在0到9之间,9代表最高压缩率(但速度最慢),0代表无压缩(与ZIP_STORED类似,但仍会走DEFLATE流程)。

import zipfileimport os# 示例文件test_file = 'large_text_file.txt'with open(test_file, 'w') as f:    f.write("This is a test line for compression level testing.n" * 1000)# 压缩到不同的级别zip_no_compression = 'no_compression.zip'zip_default_compression = 'default_compression.zip'zip_best_compression = 'best_compression.zip'try:    # 1. 无压缩 (仅存储)    with zipfile.ZipFile(zip_no_compression, 'w', zipfile.ZIP_STORED) as zf:        zf.write(test_file, arcname='stored_content.txt')    print(f"'{test_file}' (无压缩) -> '{zip_no_compression}' (大小: {os.path.getsize(zip_no_compression)} 字节)")    # 2. 默认压缩 (ZIP_DEFLATED)    with zipfile.ZipFile(zip_default_compression, 'w', zipfile.ZIP_DEFLATED) as zf:        zf.write(test_file, arcname='default_compressed_content.txt')    print(f"'{test_file}' (默认压缩) -> '{zip_default_compression}' (大小: {os.path.getsize(zip_default_compression)} 字节)")    # 3. 最高压缩级别 (ZIP_DEFLATED, compresslevel=9)    # 注意:compresslevel只对ZIP_DEFLATED有效    with zipfile.ZipFile(zip_best_compression, 'w', zipfile.ZIP_DEFLATED, compresslevel=9) as zf:        zf.write(test_file, arcname='best_compressed_content.txt')    print(f"'{test_file}' (最高压缩) -> '{zip_best_compression}' (大小: {os.path.getsize(zip_best_compression)} 字节)")    print(f"原始文件大小: {os.path.getsize(test_file)} 字节")except Exception as e:    print(f"控制压缩级别时发生错误: {e}")finally:    if os.path.exists(test_file):        os.remove(test_file)    if os.path.exists(zip_no_compression):        os.remove(zip_no_compression)    if os.path.exists(zip_default_compression):        os.remove(zip_default_compression)    if os.path.exists(zip_best_compression):        os.remove(zip_best_compression)

通过运行这段代码,你会很直观地看到不同压缩级别对最终文件大小的影响。通常,我个人会倾向于使用ZIP_DEFLATED而不去特意设置compresslevel,因为默认的平衡性已经很好了。除非对压缩率有极高的要求,或者需要权衡压缩时间与文件大小,否则默认值通常足够。记住,不是所有文件类型都能有效压缩,比如已经压缩过的图片(JPG)、视频(MP4)等,再压缩效果往往不明显,甚至可能因为压缩算法本身的开销导致文件略微变大。

以上就是Python中如何实现文件压缩?zipfile模块使用的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1363415.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 03:24:27
下一篇 2025年12月14日 03:24:37

相关推荐

  • 解决Python csv.writer的转义字符和引用参数问题

    摘要 本文旨在解决在使用Python的csv.writer时,由于未正确设置delimiter、quotechar、escapechar等参数,导致输出CSV文件内容被双引号包裹的问题。我们将通过一个实际案例,详细讲解如何正确配置这些参数,避免不必要的引用,并提供修改后的代码示例,以确保CSV文件按…

    好文分享 2025年12月14日
    000
  • 在Windows上以管理员权限运行Python脚本的实用指南

    本文详细阐述了在Windows操作系统中,如何确保Python脚本以管理员权限运行。针对标准执行方式无法自动获取高权限的问题,本文提供了一种简洁有效的解决方案:通过创建一个独立的Python启动器脚本,利用Windows内置的runas命令来启动目标Python脚本,从而成功绕过权限限制,确保依赖管…

    2025年12月14日
    000
  • 如何使用Python处理视频?OpenCV基础入门

    openc++v是python视频处理的首选库,因为它性能高效、功能全面、与python生态集成度高且拥有活跃社区支持。1. 它底层由c++编写并优化,提供接近原生速度,适合大规模或实时视频处理;2. 提供从视频读写到高级计算机视觉任务的完整工具链,无需切换库;3. 拥有完善的文档和庞大的社区资源,…

    2025年12月14日 好文分享
    000
  • Python中如何处理信号?signal模块详解

    要设置信号处理函数,使用signal.signal()注册;常见信号如sigint、sigterm、sighup和sigalrm各有用途;在多线程中只有主线程能接收信号。具体来说:1.用signal.signal(signal.sigxxx, handler)为指定信号注册处理函数,handler接…

    2025年12月14日 好文分享
    000
  • Python中如何使用Lambda函数?匿名函数应用实例

    lambda函数是python中用于创建匿名函数的一种简洁方式,适用于简单、单次使用的场景。它通过lambda关键字定义,结构为“lambda 参数: 表达式”,返回表达式结果,例如square = lambda x: x ** 2等价于定义单行函数。lambda常见于高阶函数如map()、filt…

    2025年12月14日 好文分享
    000
  • Python类型提示进阶:使用Pydantic实现泛型配置与动态对象加载

    本教程探讨了在Python中尝试使用Unpack和TypeVar实现动态函数签名时遇到的类型检查限制。当Unpack应用于一个绑定到TypedDict的TypeVar时,Mypy会报错,表明Unpack需要一个具体的TypedDict类型。文章详细解释了这一限制,并提供了一种基于Pydantic的健…

    2025年12月14日
    000
  • 动态函数签名生成:TypeVar与Unpack的局限及Pydantic解决方案

    本文探讨了在Python中尝试使用TypeVar结合Unpack来动态生成类方法签名的挑战,特别是当TypeVar绑定到TypedDict时遇到的类型检查器限制。我们深入分析了Unpack在此场景下的行为,并指出其需要直接操作TypedDict而非其泛型变量。针对这一限制,文章提出并详细演示了如何利…

    2025年12月14日
    000
  • Pandas时间序列插值:避免resample后的线性与NaN结果

    本文探讨了在Pandas中对时间序列数据进行插值时,使用resample后interpolate(method=’time’)可能导致NaN或不理想线性结果的问题。我们将深入分析其原因,并提供策略,以有效处理稀疏时间序列数据,确保插值结果的准确性和合理性,避免常见陷阱。 在处…

    2025年12月14日
    000
  • 如何使用 tqdm 监控文件批量读写与处理进度

    本教程详细介绍了如何利用 Python tqdm 库有效监控文件操作进度,特别是在批量处理(如加密/解密)场景下。我们将探讨如何计算总进度并为每个文件操作提供更新回调,从而实现对整个文件处理过程的直观进度条显示,提升用户体验。 引言:理解文件操作进度监控的挑战 在 python 中进行文件操作时,尤…

    2025年12月14日
    000
  • 使用tqdm跟踪文件写入与处理进度

    本文详细介绍了如何利用Python的tqdm库有效地跟踪文件处理(如加密、解密或批量写入)的进度。文章通过自定义迭代器函数,实现了在文件级别而非字节级别对操作总进度进行可视化,解决了传统tqdm示例主要针对下载流式数据的局限性,并提供了清晰的代码示例和集成指导,帮助开发者为文件操作添加直观的进度条。…

    2025年12月14日
    000
  • 使用tqdm高效跟踪文件写入与目录处理进度

    本文深入探讨了如何利用Python的tqdm库来跟踪文件写入操作的进度,尤其是在处理大型文件或批量处理目录下文件时。我们将介绍两种核心策略:针对单个大文件写入的块级进度跟踪,以及针对整个目录文件处理的宏观进度显示。通过详细的代码示例和解释,读者将学会如何将tqdm集成到文件加密、解密或其他数据转换流…

    2025年12月14日
    000
  • Python tqdm 实践:构建文件处理与写入操作的进度条

    本文深入探讨了如何利用 Python tqdm 库为文件处理和写入操作添加进度条。不同于常见的下载进度追踪,我们将展示一种策略,通过监控文件级别的处理完成情况来更新进度条,特别适用于一次性读取和写入整个文件内容的场景。文章将提供详细的代码示例和实现步骤,帮助开发者在文件加密、转换等任务中实现直观的进…

    2025年12月14日
    000
  • 使用tqdm追踪文件写入进度

    本文详细介绍了如何利用Python的tqdm库来可视化文件操作的进度,特别是针对批量文件处理场景。我们将探讨tqdm在追踪文件写入或处理完成情况时的应用,而非单一写入操作的字节级进度。通过自定义迭代器函数,我们可以有效地聚合文件夹内所有文件的总大小,并以专业、清晰的方式展示处理进度,从而提升用户体验…

    2025年12月14日
    000
  • 解决NumPy中uint8整数溢出导致对数函数返回-inf的问题

    在Python图像处理中,当对uint8类型的NumPy数组应用如log(x + 1)这样的对数函数时,若像素值为255,可能会意外得到-inf结果。这是因为uint8类型在执行255 + 1时会发生整数溢出,导致结果回绕为0,而log(0)则为负无穷。本教程将详细解释这一现象,并提供将数组显式转换…

    2025年12月14日
    000
  • NumPy图像处理:对数变换中的数据类型溢出陷阱与规避

    在NumPy中对图像数据进行对数变换时,若原始图像为uint8类型,np.log(x + 1)运算可能因整数溢出导致x + 1变为0,进而产生-inf结果。这是因为uint8类型255加1会回绕至0。解决方案是在进行对数运算前,将图像数据类型转换为浮点数(如np.float32),以避免溢出,确保计…

    2025年12月14日
    000
  • Google地图评论数据抓取:Playwright问题与Selenium解决方案

    本文旨在解决使用Playwright抓取Google地图评论数据时遇到的不完整问题。核心在于理解动态网页内容加载机制,并提出采用Selenium WebDriver结合显式等待和通用定位策略的解决方案。通过优化元素查找和交互逻辑,确保在页面内容更新后仍能准确、完整地提取数据,提高抓取任务的稳定性和成…

    2025年12月14日
    000
  • 解决NumPy中uint8整数溢出导致对数函数返回负无穷的问题

    在Python中使用NumPy库进行图像处理时,开发者经常会遇到各种数据类型相关的挑战。其中一个常见但容易被忽视的问题是,当对uint8类型的图像数据执行某些数学运算(如对数变换)时,可能会出现意料之外的负无穷(-inf)结果。这通常是由于NumPy数组的特定数据类型(uint8)在执行加法运算时发…

    2025年12月14日
    000
  • Google 地图评论数据抓取:提升稳定性和准确性

    本文旨在解决使用自动化工具抓取 Google 地图评论数据时遇到的不完整或不准确问题,特别是评论平均分和评论数量的抓取遗漏。我们将分析常见原因,并重点介绍如何利用 Selenium 结合动态定位策略和显式等待机制,构建更健壮、更可靠的爬虫,确保数据抓取的完整性和准确性。 1. 问题背景与常见挑战 在…

    2025年12月14日
    000
  • Google Maps数据抓取:提升评论数据抓取鲁棒性的策略与实践

    针对Google Maps评论数据抓取中遇到的不完整问题,本文深入探讨了导致抓取失败的常见原因,特别是动态内容加载和选择器脆弱性。文章提供了使用Playwright等自动化工具进行鲁棒性数据抓取的关键策略,包括优化等待机制、使用更稳定的选择器以及正确处理页面交互,旨在帮助开发者构建高效且可靠的爬虫系…

    2025年12月14日
    000
  • pandas DataFrame 行间除法:计算相邻行的商

    pandas DataFrame 是数据分析和处理的强大工具。在许多场景下,我们需要对 DataFrame 中的数据进行行间计算。本文将介绍如何使用 pandas 计算 DataFrame 中相邻两行的商,并将结果存储在新的一列中。 首先,我们创建一个示例 DataFrame: import pan…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信