Python如何高效读取大型CSV文件?pandas分块处理详细教程

使用pandas的chunksize参数分块读取大型csv文件可避免内存溢出。1. 通过pd.read_csv设置chunksize参数,返回textfilereader对象进行迭代处理;2. 每次迭代处理一个dataframe块,减少内存占用;3. 可在循环内执行过滤、聚合等操作,并累积结果;4. 配合dtype和usecols进一步优化内存与速度;5. 对需多次使用的数据,可转换为parquet或feather等高效二进制格式。该方法有效缓解内存压力并提升大数据处理效率。

Python如何高效读取大型CSV文件?pandas分块处理详细教程

Python高效读取大型CSV文件,核心在于避免一次性加载整个文件到内存,最直接且常用的方法就是利用pandas.read_csv函数的chunksize参数进行分块处理。这样可以将一个庞大的文件拆分成若干个可管理的小块,逐一处理,极大缓解内存压力。

Python如何高效读取大型CSV文件?pandas分块处理详细教程

解决方案

当处理数GB甚至数十GB的CSV文件时,直接用pd.read_csv('your_large_file.csv')很可能会导致程序崩溃,提示内存不足。这时,chunksize参数就成了救星。它不会返回一个DataFrame,而是一个可迭代的TextFileReader对象。你可以像遍历列表一样遍历这个对象,每次迭代都会得到一个指定大小的DataFrame块。

立即学习“Python免费学习笔记(深入)”;

Python如何高效读取大型CSV文件?pandas分块处理详细教程

import pandas as pdimport os# 假设我们有一个非常大的CSV文件,比如 'big_data.csv'# 为了演示,我们先创建一个虚拟的大文件# 如果你已经有大文件,可以跳过这部分file_path = 'big_data.csv'if not os.path.exists(file_path):    print(f"创建虚拟大文件 '{file_path}'...")    data = {'col1': range(10_000_000), 'col2': [f'text_{i}' for i in range(10_000_000)]}    df_temp = pd.DataFrame(data)    df_temp.to_csv(file_path, index=False)    print("虚拟大文件创建完成。")# 定义一个合适的块大小,比如每次读取10万行chunk_size = 100_000total_rows_processed = 0sum_of_col1 = 0print(f"n开始分块读取文件 '{file_path}'...")try:    # read_csv返回的是一个迭代器    for i, chunk in enumerate(pd.read_csv(file_path, chunksize=chunk_size)):        print(f"正在处理第 {i+1} 个数据块,包含 {len(chunk)} 行。")        # 在这里对每个chunk进行操作,比如:        # 1. 过滤数据        # filtered_chunk = chunk[chunk['some_column'] > value]        # 2. 聚合统计        # daily_summary = chunk.groupby('date_column')['value_column'].sum()        # 3. 简单的数据处理,例如累加某一列        if 'col1' in chunk.columns: # 确保列存在            sum_of_col1 += chunk['col1'].sum()        total_rows_processed += len(chunk)    print(f"n所有数据块处理完毕。总共处理了 {total_rows_processed} 行。")    print(f"col1 的总和为: {sum_of_col1}")except MemoryError:    print("即使使用chunksize,内存仍然不足。尝试减小chunk_size或优化处理逻辑。")except Exception as e:    print(f"读取或处理文件时发生错误: {e}")# 清理演示文件(可选)# os.remove(file_path)# print(f"已删除虚拟大文件 '{file_path}'。")

上面的代码片段展示了如何使用chunksize参数来迭代处理大型CSV文件。在循环内部,你可以对每个chunk(它本身就是一个DataFrame)执行任何你需要的pandas操作,例如数据清洗、转换、聚合等。这样,内存中始终只保留当前正在处理的数据块,而不是整个文件。

为什么直接读取大文件会“爆内存”?

Python如何高效读取大型CSV文件?pandas分块处理详细教程

这其实是个很直接的问题,但很多人在实际操作中才真正体会到它的痛点。当你用pd.read_csv()去读一个几GB甚至几十GB的CSV文件时,Pandas的默认行为是尝试把整个文件的数据一次性加载到计算机的内存(RAM)中。想象一下,如果你的电脑只有8GB内存,而你试图加载一个10GB的文件,那肯定会“爆”啊!这就是所谓的“内存溢出”(MemoryError)。

这种现象的根本原因在于,Pandas为了提供高效的数据操作,会将数据组织成DataFrame结构,这需要占用连续的内存空间。而且,CSV文件中的数据类型通常是字符串,Pandas在读取时需要推断每列的数据类型。如果某些列包含混合类型数据(比如数字和文本),Pandas可能会默认使用占用内存更大的object类型(通常是字符串),这会进一步加剧内存消耗。此外,文件越大,需要存储的数据单元就越多,自然对内存的需求也就越高。所以,对于大型文件,一次性加载就如同试图将一头大象塞进一个冰箱,结果必然是冰箱“爆炸”。

chunksize参数具体怎么用,有什么注意事项?

chunksize参数是pd.read_csv方法的一个关键点,它将读取过程从“一次性”变成了“分批次”。当你设置了chunksizeread_csv返回的就不是一个DataFrame,而是一个TextFileReader对象,你可以把它想象成一个可以逐块提供DataFrame的“数据生成器”或者“迭代器”。每次你从这个迭代器中取出一个元素,它就会给你一个大小为chunksize的DataFrame。

具体用法:

就像上面代码示例那样,你把它放在一个for循环里:

for chunk in pd.read_csv('your_file.csv', chunksize=100000):    # 在这里处理每个chunk    process_data(chunk)

注意事项:

选择合适的chunksize 这没有一个放之四海而皆准的答案,它取决于你的系统内存大小、CSV文件的列数、数据类型以及你在每个块上执行的操作复杂度。

太小: 如果chunksize设置得太小(比如100行),你会发现读取速度可能变慢。这是因为每次迭代都需要执行文件I/O操作,频繁的磁盘读写会增加开销。太大: 如果chunksize仍然太大,你可能会再次遇到内存问题。目标是找到一个平衡点,让每个chunk都能舒适地装进内存,并且处理起来效率高。一个好的起点可能是10万到100万行,然后根据实际运行情况调整。动态调整: 有时,你可能需要根据文件大小或可用内存,动态计算chunksize。例如,如果你知道文件大约有多少行,可以将其除以一个你认为合适的块数。

累积结果: 由于数据是分块处理的,如果你需要对整个文件进行聚合(比如计算总和、平均值、分组统计),你需要手动在循环外部定义一个变量来累积每个块的结果。例如,上面代码中的sum_of_col1

索引问题: 默认情况下,每个chunk的DataFrame索引都会从0开始。如果你需要保留原始文件的行号或者自定义索引,可能需要额外处理。通常,这在分块处理中不是大问题,因为我们更多关注的是数据内容本身,而不是其在文件中的原始行号。

最终合并(如果需要): 多数情况下,分块处理是为了避免内存问题,所以最终结果可能也是聚合后的、较小的数据集。如果你真的需要将所有处理过的chunk合并成一个大的DataFrame(这通常意味着你一开始就不应该分块处理,除非是处理完后数据量大幅减少),你需要将每个处理过的chunk存储到一个列表中,然后在循环结束后使用pd.concat()。但这要非常小心,如果合并后的数据仍然很大,又会回到内存问题。

错误处理: 在处理大型文件时,网络中断、文件损坏等都可能导致读取失败。在循环中加入try-except块是个好习惯,可以捕获并处理这些异常,提高程序的健壮性。

除了分块处理,还有哪些优化大型CSV读取的策略?

分块处理是应对内存溢出的“核武器”,但还有很多其他策略可以作为补充,或者在特定场景下提供更优的性能:

明确指定数据类型(dtype): 这是我个人觉得最被低估但效果显著的优化手段。CSV文件默认所有列都是字符串,Pandas在读取时会尝试推断最佳数据类型。但这种推断并不总是最优的,比如一个只有0和1的列可能会被推断成int64,但实际上用boolint8就足够了,内存占用会小得多。

# 预先定义好每列的数据类型dtype_mapping = {    'column_id': 'int32',    'timestamp': 'datetime64[ns]',    'value': 'float32',    'category': 'category' # 使用category类型可以大幅节省内存}df = pd.read_csv('large_file.csv', dtype=dtype_mapping)

对于类别型数据(重复值很多但种类有限的字符串),使用'category'类型能带来巨大的内存节省。

只读取需要的列(usecols): 如果你的CSV文件有几十上百列,但你只需要其中几列进行分析,那么完全没必要加载所有列。

df = pd.read_csv('large_file.csv', usecols=['col1', 'col5', 'col10'])

这能显著减少内存占用和读取时间。

使用C引擎(engine='c'): Pandas的read_csv默认使用C解析引擎,它通常比Python引擎更快。但在某些特殊情况下(例如,文件包含不规则的引用或分隔符),Pandas可能会回退到Python引擎。明确指定engine='c'可以确保使用更快的解析器,尽管这通常是默认行为。

低内存模式(low_memory=True): read_csv有一个low_memory参数,默认为True。当Pandas检测到列中存在混合数据类型时,它会尝试分块读取文件以推断数据类型,然后合并这些块。这有助于减少内存使用,但有时可能会导致类型推断不准确。通常,如果你已经在使用chunksize或明确指定了dtype,这个参数的影响就小了。

将CSV转换为更高效的二进制格式: 如果你需要多次读取同一个大型数据集,将CSV文件一次性转换成Parquet、Feather或HDF5等二进制格式会大大提高后续读取的速度和效率。这些格式通常具有更紧凑的存储方式、支持列式存储(只读取需要的列更快)和更快的I/O。

# 第一次读取(可能需要分块)并保存为Parquet# 假设 df_processed 是你处理后的完整DataFrame# df_processed.to_parquet('large_file.parquet', index=False)# 后续读取就快多了# df_from_parquet = pd.read_parquet('large_file.parquet')

这种方式在数据仓库和大数据处理中非常常见,因为它们是为高效数据存取而设计的。

考虑Dask或Vaex等外部库: 如果你的数据量实在太大,即使分块处理也显得力不从心,或者你需要进行更复杂的、超出内存的计算,那么可以考虑使用专门为大数据集设计的库,如Dask或Vaex。它们提供了类似Pandas的API,但能够在内存之外进行计算(out-of-core computation),甚至可以利用多核CPU或分布式集群。不过,这些库的学习曲线相对陡峭一些。

综合来看,针对大型CSV文件的读取,我的建议是:先尝试用chunksize解决内存问题;同时,务必结合dtypeusecols来优化内存和速度;如果数据需要反复使用,投资将其转换为二进制格式绝对是值得的。至于Dask或Vaex,它们是当你真正进入“大数据”领域时才需要考虑的“重型武器”。

以上就是Python如何高效读取大型CSV文件?pandas分块处理详细教程的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1364356.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 03:59:17
下一篇 2025年12月14日 03:59:28

相关推荐

  • CSS mask属性无法获取图片:为什么我的图片不见了?

    CSS mask属性无法获取图片 在使用CSS mask属性时,可能会遇到无法获取指定照片的情况。这个问题通常表现为: 网络面板中没有请求图片:尽管CSS代码中指定了图片地址,但网络面板中却找不到图片的请求记录。 问题原因: 此问题的可能原因是浏览器的兼容性问题。某些较旧版本的浏览器可能不支持CSS…

    2025年12月24日
    900
  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 为什么设置 `overflow: hidden` 会导致 `inline-block` 元素错位?

    overflow 导致 inline-block 元素错位解析 当多个 inline-block 元素并列排列时,可能会出现错位显示的问题。这通常是由于其中一个元素设置了 overflow 属性引起的。 问题现象 在不设置 overflow 属性时,元素按预期显示在同一水平线上: 不设置 overf…

    2025年12月24日 好文分享
    400
  • 网页使用本地字体:为什么 CSS 代码中明明指定了“荆南麦圆体”,页面却仍然显示“微软雅黑”?

    网页中使用本地字体 本文将解答如何将本地安装字体应用到网页中,避免使用 src 属性直接引入字体文件。 问题: 想要在网页上使用已安装的“荆南麦圆体”字体,但 css 代码中将其置于第一位的“font-family”属性,页面仍显示“微软雅黑”字体。 立即学习“前端免费学习笔记(深入)”; 答案: …

    2025年12月24日
    000
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 为什么我的特定 DIV 在 Edge 浏览器中无法显示?

    特定 DIV 无法显示:用户代理样式表的困扰 当你在 Edge 浏览器中打开项目中的某个 div 时,却发现它无法正常显示,仔细检查样式后,发现是由用户代理样式表中的 display none 引起的。但你疑问的是,为什么会出现这样的样式表,而且只针对特定的 div? 背后的原因 用户代理样式表是由…

    2025年12月24日
    200
  • inline-block元素错位了,是为什么?

    inline-block元素错位背后的原因 inline-block元素是一种特殊类型的块级元素,它可以与其他元素行内排列。但是,在某些情况下,inline-block元素可能会出现错位显示的问题。 错位的原因 当inline-block元素设置了overflow:hidden属性时,它会影响元素的…

    2025年12月24日
    000
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 为什么使用 inline-block 元素时会错位?

    inline-block 元素错位成因剖析 在使用 inline-block 元素时,可能会遇到它们错位显示的问题。如代码 demo 所示,当设置了 overflow 属性时,a 标签就会错位下沉,而未设置时却不会。 问题根源: overflow:hidden 属性影响了 inline-block …

    2025年12月24日
    000
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 为什么我的 CSS 元素放大效果无法正常生效?

    css 设置元素放大效果的疑问解答 原提问者在尝试给元素添加 10em 字体大小和过渡效果后,未能在进入页面时看到放大效果。探究发现,原提问者将 CSS 代码直接写在页面中,导致放大效果无法触发。 解决办法如下: 将 CSS 样式写在一个单独的文件中,并使用 标签引入该样式文件。这个操作与原提问者观…

    2025年12月24日
    000
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 为什么我的 em 和 transition 设置后元素没有放大?

    元素设置 em 和 transition 后不放大 一个 youtube 视频中展示了设置 em 和 transition 的元素在页面加载后会放大,但同样的代码在提问者电脑上没有达到预期效果。 可能原因: 问题在于 css 代码的位置。在视频中,css 被放置在单独的文件中并通过 link 标签引…

    2025年12月24日
    100

发表回复

登录后才能评论
关注微信