Numpy数组与Python列表:意外的存储大小差异及其优化策略

Numpy数组与Python列表:意外的存储大小差异及其优化策略

本文深入探讨了Numpy数组在特定场景下存储空间大于等效Python列表的现象。通过分析Numpy不进行自动压缩的特性以及Python Pickle在序列化时对对象引用的优化机制,揭示了导致这种差异的深层原因。教程将提供使用numpy.savez_compressed等方法来有效缩小Numpy数组文件大小的专业解决方案。

在数据科学和机器学习领域,numpy数组因其高效的数值计算能力和紧凑的内存布局而广受欢迎。然而,在某些特定的数据存储场景中,我们可能会遇到一个反直觉的现象:一个numpy数组的磁盘占用空间竟然比等效的python列表更大。这通常发生在数据序列化(如保存到文件)时,尤其是在未充分理解numpy和python序列化机制差异的情况下。

核心问题分析:Numpy数组为何可能更大?

当我们处理一个大规模数据集,例如一个10000x10000x7的Numpy数组,并将其数据类型指定为np.float16时,其理论上的存储大小可以精确计算。一个np.float16占用2字节(16位)。因此,一个10000x10000x7的np.float16数组的原始大小为:10000 10000 7 * 2 字节 = 1,400,000,000 字节 ≈ 1.4 GB。Numpy的np.save函数在默认情况下,会以原始二进制格式存储数组数据,不进行任何压缩。这意味着,无论数据内容如何,它都会占据其理论上的原始大小。

相比之下,Python的pickle模块在序列化Python对象时,具有一种优化机制:如果多个地方引用了内存中的同一个对象,pickle在序列化时不会多次存储该对象的完整副本,而是存储对该对象的引用。

考虑以下两种数据采样和保存的方式:

方式一:Numpy数组保存

import numpy as npimport random# 假设 all_games 是一个包含多个7元素浮点数列表的列表# 例如:all_games = [[float(i), float(i+1), ..., float(i+6)] for i in range(100)]def sample_games_numpy(all_games_list, file_name):    # 将Python列表转换为Numpy数组    all_games_np = np.array(all_games_list, dtype=np.float16)    DRAW = 10000    SAMPLE = 10000    # 从 all_games_np 中随机采样    # sampled_indices 会生成一个 (SAMPLE, DRAW) 的索引数组    # sampled_data 会根据这些索引从 all_games_np 中提取数据    # 此时 sampled_data 是一个全新的、独立的Numpy数组,其元素是原始数据的副本    rng = np.random.default_rng() # 推荐使用新的随机数生成器    sampled_indices = rng.choice(all_games_np.shape[0], size=(SAMPLE, DRAW), replace=True)    sampled_data = all_games_np[sampled_indices]    # 保存为Numpy文件,默认不压缩    np.save(file_name, sampled_data)    print(f"Numpy array saved to {file_name}.npy with shape {sampled_data.shape}")# 示例调用 (all_games_list 需要实际数据)# all_games_list = [[random.random() for _ in range(7)] for _ in range(1000)]# sample_games_numpy(all_games_list, 'sampled_numpy_data')

当sampled_data被创建时,它是一个新的Numpy数组,包含了所有采样到的数据点的实际值。即使原始all_games_np中存在重复的7元素子数组,sampled_data也会存储这些重复值的完整副本。因此,当np.save保存这个10000x10000x7的数组时,它会严格按照1.4GB的原始大小进行存储。

立即学习“Python免费学习笔记(深入)”;

方式二:Python列表通过Pickle保存

import randomimport pickle# 假设 all_games 是一个包含多个7元素浮点数列表的列表# 例如:all_games = [[float(i), float(i+1), ..., float(i+6)] for i in range(100)]def sample_games_pickle(all_games_list, file_name):    DRAW = 10000    SAMPLE = 10000    # 随机采样,注意这里直接从 all_games_list 中选择对象    # 如果 all_games_list 中包含重复的7元素列表对象,    # random.choice 可能会多次返回同一个内存地址的列表对象    sampled_data = [[random.choice(all_games_list) for _ in range(DRAW)] for _ in range(SAMPLE)]    # 使用pickle保存Python列表    with open(file_name, 'wb') as file:        pickle.dump(sampled_data, file)    print(f"Python list saved to {file_name}.pkl")# 示例调用 (all_games_list 需要实际数据)# all_games_list = [[random.random() for _ in range(7)] for _ in range(1000)]# sample_games_pickle(all_games_list, 'sampled_pickle_data')

在这种情况下,如果all_games_list中的元素(即那些7元素的子列表)存在重复,random.choice(all_games_list)可能会多次返回对同一个内存中列表对象的引用。pickle在序列化时会识别并利用这种对象引用关系,它不会为每个引用都存储一个完整的列表副本,而是存储一次对象内容,然后用引用指向它。这大大减少了文件大小,解释了为什么pickle文件可能只有500MB。

为了验证pickle的这种优化行为,我们可以强制random.choice返回对象的副本,而不是引用:

def sample_games_pickle_with_copy(all_games_list, file_name):    DRAW = 10000    SAMPLE = 10000    # 强制创建副本,破坏pickle的引用优化    sampled_data = [[random.choice(all_games_list).copy() for _ in range(DRAW)] for _ in range(SAMPLE)]    with open(file_name, 'wb') as file:        pickle.dump(sampled_data, file)    print(f"Python list (with copies) saved to {file_name}.pkl")# 示例调用# all_games_list = [[random.random() for _ in range(7)] for _ in range(1000)]# sample_games_pickle_with_copy(all_games_list, 'sampled_pickle_data_with_copy')

当执行上述代码,并添加.copy()后,pickle文件的大小可能会急剧增加,甚至达到4.4GB,这进一步证明了pickle默认的引用优化机制。

Numpy数组的存储优化策略

既然Numpy的np.save默认不压缩,那么如何才能减小Numpy数组的文件大小呢?答案是使用Numpy提供的压缩存储功能。

1. 使用 numpy.savez_compressed

numpy.savez_compressed函数允许我们将一个或多个Numpy数组以压缩的.npz格式保存。它内部使用了zipfile模块进行压缩,可以显著减小文件大小,尤其是在数据存在重复或规律性时。

import numpy as npdef save_compressed_numpy_array(data_array, file_name):    """    使用 numpy.savez_compressed 保存Numpy数组。    """    np.savez_compressed(file_name, data=data_array)    print(f"Compressed Numpy array saved to {file_name}.npz with shape {data_array.shape}")# 假设 sampled_data 是之前生成的10000x10000x7的Numpy数组# sampled_data = np.random.rand(10000, 10000, 7).astype(np.float16)# save_compressed_numpy_array(sampled_data, 'sampled_numpy_data_compressed')

使用np.savez_compressed保存上述1.4GB的np.float16数组,通常可以将其文件大小大幅降低,甚至可能小于原始的500MB pickle文件,具体压缩率取决于数据的内在特性。

2. 考虑更小的数据类型(已在np.float16中应用)

在本案例中,已经使用了np.float16,这已经是浮点数类型中占用空间较小的选择了。如果数据允许,例如是整数且范围不大,可以考虑使用np.int8、np.uint8等更小的整数类型,这将直接从根本上减少每个元素占用的字节数。

总结与注意事项

Numpy的np.save默认不压缩:它以原始二进制格式存储数据,文件大小直接反映数组的理论内存占用Python pickle的引用优化:pickle在序列化Python对象时,如果多个地方引用了同一个内存对象,它只会存储一次对象内容,然后用引用指向它,这在特定场景下能显著减小文件大小。强制复制的后果:如果在使用pickle序列化前,通过.copy()等方式强制创建对象的独立副本,pickle将无法利用引用优化,导致文件大小急剧增加。Numpy数组压缩方案:对于需要减小Numpy数组文件大小的场景,务必使用numpy.savez_compressed函数。它能有效压缩数据,是Numpy官方推荐的压缩存储方式。数据类型选择:始终根据数据的实际范围和精度要求,选择最小合适的数据类型(如np.float16, np.int8等),这是优化Numpy数组内存和磁盘占用的基础。

理解这些底层机制,有助于我们更有效地管理和优化大规模数据集的存储,避免因误解而导致的性能或空间浪费问题。在选择存储方案时,不仅要考虑数据类型和结构,还要考虑序列化工具的特性以及数据本身的重复性。

以上就是Numpy数组与Python列表:意外的存储大小差异及其优化策略的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1375751.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 15:17:43
下一篇 2025年12月14日 15:17:55

相关推荐

  • python模块的搜索路径和顺序

    Python导入模块时按顺序搜索路径:先当前脚本目录,再PYTHONPATH环境变量指定的目录,最后是安装默认路径如标准库和site-packages。可通过sys.path查看当前搜索路径列表,其顺序决定模块查找优先级。使用sys.path.insert(0, ‘path’…

    2025年12月14日
    000
  • Python3官网官方网址是什么样的_Python3官方网址样式与功能介绍

    Python3官网官方网址是https://www.python.org/,采用极简风格设计,顶部导航栏包含Downloads、Documentation、About、Community等核心栏目,首页突出显示最新稳定版本及下载按钮,底部提供PEP索引、第三方模块仓库、开发进度报告和多语言社区资源链…

    2025年12月14日
    000
  • Python多个版本环境变量怎么配置_多版本Python环境变量设置与管理方法

    合理配置环境变量可在Windows中管理多个Python版本:1. 为不同版本设置独立安装路径并手动添加至Path;2. 路径顺序决定默认版本优先级;3. 推荐使用py -X.Y命令通过Python启动器切换版本;4. 为项目创建虚拟环境以隔离依赖,避免冲突。手动管理PATH、结合py启动器与虚拟环…

    2025年12月14日
    000
  • Python有哪些命令行参数解析模块?

    推荐使用argparse解析命令行参数,它功能完整且用户友好,支持位置与可选参数、子命令、类型检查及自动生成帮助;getopt适用于简单场景或旧代码兼容;optparse已弃用;第三方库click采用装饰器风格,适合复杂CLI应用;fire由Google开发,可快速将函数或类转为命令行接口,适合原型…

    2025年12月14日
    000
  • Python入门如何操作文件读写_Python入门文件处理的标准操作

    掌握Python文件读写需使用open()函数并合理选择模式,推荐with语句自动管理文件生命周期,逐行读取大文件以节省内存,写入时注意模式与编码,统一使用UTF-8处理中文字符。 如果您需要在Python中处理文件,例如读取配置、保存数据或生成报告,掌握文件的读写操作是必不可少的基础技能。以下是P…

    2025年12月14日
    000
  • python多进程与多线程的简单区分

    多进程适合CPU密集型任务,利用多核并行计算,如数值处理;多线程适合I/O密集型任务,轻量高效,如网络请求。 Python中多进程和多线程都是实现并发的方式,但它们的使用场景和底层机制有明显区别。理解这些差异有助于在实际开发中做出合适选择。 多进程(multiprocessing) 每个进程拥有独立…

    2025年12月14日
    000
  • python中geth如何使用?

    答案:Python通过web3.py库连接启用RPC的Geth节点实现交互。首先启动Geth并开启HTTP-RPC服务,配置允许的API模块;接着安装web3.py库,使用Web3.HTTPProvider连接本地8545端口;成功后可获取账户、查询余额、发送交易、调用合约等;注意安全设置与网络选择…

    2025年12月14日
    000
  • Python官网Debug技巧的全面掌握_Python官网调试工具使用教程

    首先使用pdb模块设置断点进行本地调试,再通过IDE集成工具实现图形化调试,结合logging记录执行信息,并利用debugpy实现远程调试。 如果您在使用Python官网提供的工具进行代码调试时遇到问题,可能是因为未正确配置调试环境或未掌握核心调试技巧。以下是帮助您全面掌握Python官方调试工具…

    2025年12月14日
    000
  • Python异步中loop抛出异常的解决

    事件循环异常主因是生命周期管理不当和未捕获错误。1. 避免在子线程直接调用get_event_loop(),应使用asyncio.run()自动管理;2. 协程内需用try/except处理异常,gather设return_exceptions=True防中断;3. 禁止重复运行或过早关闭循环,确保…

    2025年12月14日
    000
  • Python入门如何连接数据库_Python入门数据库操作的基本流程

    首先安装对应数据库的驱动模块,然后使用正确参数建立连接并获取游标,通过游标执行SQL语句实现增删改查,操作完成后提交事务并关闭游标与连接以释放资源。 如果您希望在Python程序中对数据库进行增删改查操作,但不知道如何建立连接并执行基本指令,这通常是因为尚未配置好数据库驱动或连接参数。以下是实现Py…

    2025年12月14日
    000
  • python进程池的使用注意

    答案:使用Python进程池需在if name == ‘__main__’:中创建,合理设置进程数,及时关闭并回收资源,避免传递不可序列化的对象。 使用Python进程池时,关键在于合理管理资源和避免常见陷阱。进程池适合处理CPU密集型任务,但若使用不当,可能导致性能下降甚至…

    2025年12月14日
    000
  • python在函数中传递实参

    Python函数传参方式包括位置实参、关键字实参、默认参数值及args和kwargs。位置实参按顺序传递,关键字实参通过“形参名=实参”指定,提高可读性;默认参数在定义时赋初值,简化调用;args收集多余位置参数为元组,kwargs收集关键字参数为字典,使函数支持可变数量输入,提升灵活性与通用性。 …

    2025年12月14日
    000
  • Python中优雅处理函数调用中的冗余关键字参数:以模拟场景为例

    在python中,当函数调用方使用关键字参数,而函数定义方(尤其是模拟对象)不需要这些参数时,会遇到函数签名不匹配的问题。本文将介绍如何利用python的`**kwargs`语法,以一种简洁且符合pythonic的方式,捕获并忽略这些冗余的关键字参数,从而避免linter警告并保持代码的灵活性,尤其…

    2025年12月14日
    000
  • 使用OR-Tools CP-SAT加速大规模指派问题求解

    本文旨在解决使用`ortools.linear_solver`处理大规模指派问题时遇到的性能瓶颈,特别是当问题规模(n)超过40-50时。针对包含复杂定制约束(如特定id分配、id分组及id和限制)以及最小化最高与最低成本差值的目标函数,我们推荐并详细演示如何通过迁移至or-tools的cp-sat…

    2025年12月14日
    000
  • Python中高效合并嵌套字典的策略

    本文将深入探讨在python中高效合并两个或多个可能包含嵌套结构的字典的方法。针对键不完全重叠且需保留所有数据的场景,文章将详细介绍如何利用`setdefault()`和`update()`组合实现深度合并,确保数据完整性,并兼顾大型字典的性能需求,提供清晰的代码示例和原理分析。 理解字典合并的挑战…

    2025年12月14日
    000
  • 解决Windows 7上Python rtmidi库安装错误

    本文旨在帮助解决在Windows 7系统上安装Python rtmidi库时遇到的”Microsoft Visual C++ 14.0 or greater is required”错误。通过升级Python版本到3.11并使用pip安装rtmidi,可以有效解决此问题,从而…

    2025年12月14日
    000
  • 在 Jupyter Notebook 中直接获取输入数据

    本文介绍了如何在 Jupyter Notebook 中直接获取输入数据的方法,以便创建交互式教学环境。通过利用 IPython 提供的 In 和 Out 对象,我们可以访问已执行代码单元格的内容和输出结果,从而实现从其他单元格获取输入数据的需求。 Jupyter Notebook 提供了一种交互式的…

    2025年12月14日
    000
  • 使用 pylintrc 文件为 “unused-argument” 指定参数列表

    本文介绍了如何使用 pylintrc 配置文件,通过 `ignored-argument-names` 选项,为 pylint 的 “unused-argument” 检查器指定需要忽略的参数名称列表,从而避免不必要的警告信息,提高代码检查的效率和准确性。 在 Python …

    2025年12月14日
    000
  • 使用 Snowpark 循环处理数据时避免覆盖先前结果

    本文旨在解决在使用 Snowpark 循环处理数据时,如何避免后续循环元素覆盖先前结果的问题。通过示例代码,展示了如何使用列表聚合的方式,将每次循环的结果添加到结果列表中,最终得到所有结果的并集,避免了结果被覆盖的情况。同时,也提供了使用 `append` 方法在 Pandas DataFrame …

    2025年12月14日
    000
  • 从精灵图的积分图中计算特定图像的积分图

    本文介绍如何利用精灵图的积分图来高效计算精灵图中特定区域(子图像)的积分图。核心思想是从精灵图的积分图中提取对应区域,并通过简单的减法操作,将该区域转换为目标子图像的积分图。这种方法避免了对子图像的像素进行重复计算,显著提升了计算效率。 积分图是一种重要的图像处理技术,它能够快速计算图像中任意矩形区…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信