如何使用Python处理CSV文件?csv模块实践

python处理csv文件最高效的方式是使用内置csv模块。1. 读取csv文件可使用csv.reader将每行解析为列表,或使用csv.dictreader将每行转为字典,便于通过字段名访问数据;2. 写入csv文件可使用csv.writer写入列表数据,或使用csv.dictwriter写入字典数据,并支持自动写入表头;3. 处理大型csv文件时应逐行迭代,避免一次性加载全部数据至内存;4. 编码问题可通过open()函数指定encoding参数解决,读取时需匹配文件实际编码,写入时推荐使用utf-8-sig防止乱码;5. csv模块支持自定义分隔符(delimiter)、引用字符(quotechar)、引用策略(quoting)、双引号转义(doublequote)及跳过空格(skipinitialspace),以适应非标准格式的csv文件。

如何使用Python处理CSV文件?csv模块实践

Python处理CSV文件,最直接且高效的方式就是利用其内置的csv模块。这个模块提供了一套完善的工具集,能够轻松应对CSV文件的读写操作,无论是简单的文本数据还是需要特殊处理的复杂结构,它都能很好地胜任,避免了手动解析逗号、引号等繁琐细节。

如何使用Python处理CSV文件?csv模块实践

解决方案

使用Python的csv模块处理CSV文件,核心在于理解其readerwriter对象,以及更便捷的DictReaderDictWriter

如何使用Python处理CSV文件?csv模块实践

1. 读取CSV文件

立即学习“Python免费学习笔记(深入)”;

最基础的读取方式是使用csv.reader。它会把CSV文件的每一行解析成一个列表(list),列表中的每个元素对应一个字段。

如何使用Python处理CSV文件?csv模块实践

import csv# 假设有一个名为 'data.csv' 的文件# content of data.csv:# name,age,city# Alice,30,New York# Bob,24,London# Charlie,35,Paristry:    with open('data.csv', 'r', newline='', encoding='utf-8') as csvfile:        csv_reader = csv.reader(csvfile)        header = next(csv_reader) # 通常第一行是表头,可以单独读取        print(f"表头: {header}")        for row in csv_reader:            print(f"数据行: {row}")except FileNotFoundError:    print("文件 'data.csv' 未找到。")except Exception as e:    print(f"读取文件时发生错误: {e}")# 我个人更偏爱使用 DictReader,因为它能把每一行数据变成一个字典,# 用列名(即表头)作为键访问数据,比通过索引数字要直观和健壮得多。print("n--- 使用 DictReader 读取 ---")try:    with open('data.csv', 'r', newline='', encoding='utf-8') as csvfile:        csv_dict_reader = csv.DictReader(csvfile)        # DictReader 会自动将第一行识别为字段名        print(f"字段名: {csv_dict_reader.fieldnames}")        for row_dict in csv_dict_reader:            print(f"姓名: {row_dict['name']}, 年龄: {row_dict['age']}, 城市: {row_dict['city']}")except FileNotFoundError:    print("文件 'data.csv' 未找到。")except Exception as e:    print(f"使用 DictReader 读取文件时发生错误: {e}")

2. 写入CSV文件

写入操作与读取类似,使用csv.writercsv.DictWriter

import csv# 写入操作时,通常需要指定 'w' 模式,并且 newline='' 是非常重要的,# 它能防止在Windows系统上写入空行。data_to_write = [    ['Product', 'Price', 'Quantity'],    ['Laptop', 1200, 50],    ['Mouse', 25, 200],    ['Keyboard', 75, 150]]try:    with open('products.csv', 'w', newline='', encoding='utf-8') as csvfile:        csv_writer = csv.writer(csvfile)        csv_writer.writerows(data_to_write) # writerows 可以一次写入多行    print("n'products.csv' 文件写入成功。")except Exception as e:    print(f"写入文件时发生错误: {e}")# 使用 DictWriter 写入,需要先定义好字段名(fieldnames),它会作为CSV的表头。dict_data_to_write = [    {'name': 'David', 'age': 28, 'city': 'Berlin'},    {'name': 'Eve', 'age': 32, 'city': 'Rome'}]fieldnames = ['name', 'age', 'city'] # 字段顺序也很重要try:    with open('new_users.csv', 'w', newline='', encoding='utf-8') as csvfile:        csv_dict_writer = csv.DictWriter(csvfile, fieldnames=fieldnames)        csv_dict_writer.writeheader() # 写入表头        csv_dict_writer.writerows(dict_data_to_write) # 写入多行字典数据    print("'new_users.csv' 文件写入成功。")except Exception as e:    print(f"使用 DictWriter 写入文件时发生错误: {e}")

在实际项目中,我发现DictReaderDictWriter用起来更顺手,因为它们直接映射了Python字典的数据结构,与我们处理数据时的思维模式更贴合。当然,如果数据量非常大,或者对内存占用有极致要求,csv.reader逐行迭代的特性可能会更受欢迎。

如何高效读取大型CSV文件,避免内存溢出?

当你面对一个动辄几百兆甚至上G的CSV文件时,直接一股脑儿地把它全读进内存,那基本上就是自寻烦恼,程序多半会直接崩溃或者卡死。Python的csv模块在设计上就考虑到了这一点,它的readerDictReader对象都是迭代器。这意味着它们并不会一次性把所有数据都加载到内存里,而是当你需要一行数据时,它就读取一行,处理完再读取下一行。

所以,高效读取大型CSV文件的关键就在于利用这种迭代特性,逐行处理数据。你看到的for row in csv_reader:或者for row_dict in csv_dict_reader:这种循环模式,就是最典型的内存友好型处理方式。我们不应该尝试将整个CSV文件转换成一个列表的列表(list(csv_reader)),除非你确定文件很小,或者你的机器内存足够充裕。

例如,如果你只想统计某个字段的总和,完全没必要把所有数据都存起来:

Playground AI

Playground AI

AI图片生成和修图

Playground AI 99

查看详情 Playground AI

import csv# 假设 'sales_data.csv' 有大量销售数据,其中包含 'amount' 字段# product,amount,date# A,100.5,2023-01-01# B,200.0,2023-01-02# ... (millions of rows)total_sales = 0.0try:    with open('sales_data.csv', 'r', newline='', encoding='utf-8') as csvfile:        reader = csv.DictReader(csvfile)        # 确保 'amount' 字段存在        if 'amount' not in reader.fieldnames:            print("错误: CSV文件中缺少 'amount' 字段。")        else:            for row in reader:                try:                    total_sales += float(row['amount'])                except ValueError:                    # 处理非数字的 'amount' 值,比如跳过或者记录日志                    print(f"警告: 无法将 '{row['amount']}' 转换为数字,跳过此行。")    print(f"n总销售额: {total_sales:.2f}")except FileNotFoundError:    print("文件 'sales_data.csv' 未找到。")except Exception as e:    print(f"处理销售数据时发生错误: {e}")

这种逐行处理的模式,无论是对内存还是CPU,压力都小得多,是处理大数据文件的不二法门。

处理CSV时常见的编码问题与解决方案是什么?

遇到乱码,十有八九是编码没对上。CSV文件本质上是纯文本,它的内容是用某种字符编码(比如UTF-8、GBK、Latin-1等)保存的。如果你用错误的编码去读取它,就会出现UnicodeDecodeError,或者更隐蔽的——读出来的是一堆“问号”或“方框”。同样,写入时如果编码不当,别人打开你的CSV文件也可能看到乱码。

常见问题及解决方案:

UnicodeDecodeError 这是最直接的错误提示,意味着你尝试用一种编码去解码不属于它的字节序列。

原因: 最常见的是CSV文件是GBK编码(尤其是国内很多老旧系统导出的),但你用默认的UTF-8去读。

解决方案:open()函数中明确指定encoding参数。

# 尝试用GBK编码读取try:    with open('some_gbk_encoded.csv', 'r', newline='', encoding='gbk') as f:        reader = csv.reader(f)        for row in reader:            print(row)except UnicodeDecodeError:    print("尝试GBK编码失败,可能是其他编码。")except FileNotFoundError:    print("文件未找到。")

如何确定编码? 有时你需要一些工具来帮助判断,比如Notepad++打开文件后看右下角的编码显示,或者使用Python的chardet库来猜测文件的编码。

# pip install chardetimport chardetdef detect_encoding(file_path):    with open(file_path, 'rb') as f: # 以二进制模式读取,因为要检测原始字节        raw_data = f.read(100000) # 读取文件前100KB来猜测    result = chardet.detect(raw_data)    return result['encoding'], result['confidence']# encoding, confidence = detect_encoding('unknown_encoding.csv')# print(f"检测到编码: {encoding}, 置信度: {confidence}")# 然后再用检测到的编码去打开文件

写入时乱码: 你写入的CSV文件,别人打开是乱码。

原因: 你可能使用了UTF-8编码写入,但对方的软件(比如Excel)默认以GBK或ANSI(Windows-1252)编码打开。解决方案:最稳妥的是始终使用encoding='utf-8-sig'utf-8-sig会在文件开头添加一个BOM(Byte Order Mark),很多软件(包括Excel)会识别这个BOM,从而正确地以UTF-8编码打开文件。

with open('output_for_excel.csv', 'w', newline='', encoding='utf-8-sig') as f:writer = csv.writer(f)writer.writerow(['姓名', '城市'])writer.writerow(['张三', '北京'])

如果明确知道对方只支持GBK,那就直接用encoding='gbk'写入。

总而言之,处理CSV编码问题,核心就是明确地、正确地指定open()函数中的encoding参数

除了基本的读写,csv模块还能实现哪些高级操作?

csv模块虽然看起来简单,但它提供了一些参数,可以帮助我们处理那些不那么“规矩”的CSV文件,或者在特定场景下提供更细粒度的控制。

自定义分隔符(delimiter):有时CSV文件并不那么“规矩”,比如它可能用分号(;)而不是逗号(,)做分隔符,或者用制表符(t)分隔(这种文件通常被称为TSV,Tab-Separated Values)。delimiter参数就是用来指定这个分隔符的。

# 假设 'semicolon_data.csv' 是用分号分隔的# name;age;city# Alice;30;New Yorkimport csvwith open('semicolon_data.csv', 'r', newline='', encoding='utf-8') as f:    reader = csv.reader(f, delimiter=';') # 指定分号为分隔符    for row in reader:        print(f"分号分隔数据: {row}")# 写入时也可以指定data = [['A', 'B'], ['C', 'D']]with open('tab_separated.tsv', 'w', newline='', encoding='utf-8') as f:    writer = csv.writer(f, delimiter='t') # 指定制表符    writer.writerows(data)print("n'tab_separated.tsv' 已写入,使用制表符分隔。")

自定义引用字符与引用方式(quotechar, quoting):当字段内容本身包含分隔符(比如一个描述文本里有逗号),或者包含换行符时,CSV标准会用一个引用字符(通常是双引号")把整个字段括起来。csv模块可以自动处理这些情况,但你也可以自定义。

quotechar:指定用于引用字段的字符,默认为"quoting:指定何时进行引用。这是个枚举类型,常用的有:csv.QUOTE_MINIMAL (默认):只引用那些包含特殊字符(分隔符、引用字符、换行符)的字段。csv.QUOTE_ALL:引用所有字段。csv.QUOTE_NONNUMERIC:引用所有非数字字段。csv.QUOTE_NONE:不引用任何字段(如果字段包含特殊字符,可能会导致解析错误)。

# 示例:写入包含逗号的字段data_with_comma = [['Item', 'Description'], ['Book', 'A great read, highly recommended']]with open('quoted_data.csv', 'w', newline='', encoding='utf-8') as f:    writer = csv.writer(f, quoting=csv.QUOTE_MINIMAL) # 默认行为,但明确写出    writer.writerows(data_with_comma)print("n'quoted_data.csv' 已写入,包含引用字段。")# 打开 'quoted_data.csv' 会看到 "A great read, highly recommended" 被双引号括起来# 如果想所有字段都加引号data_all_quoted = [['Value1', 'Value2'], ['Hello', 'World']]with open('all_quoted.csv', 'w', newline='', encoding='utf-8') as f:    writer = csv.writer(f, quoting=csv.QUOTE_ALL)    writer.writerows(data_all_quoted)print("'all_quoted.csv' 已写入,所有字段都被引用。")

处理双引号转义(doublequote):在被引用的字段中,如果引用字符本身出现,它通常会被重复两次进行转义(例如"He said ""Hello"".")。doublequote参数控制是否启用这种转义,默认为True

# 假设 CSV 包含 "He said ""Hello""."# 通过 reader 读取时,它会自动处理双引号的转义# 写入时,如果字段内容是 'He said "Hello".',writer 会自动将其转义为 '"He said ""Hello""."''

跳过空行(skipinitialspace):如果CSV文件在分隔符后面有额外的空格,skipinitialspace=True可以告诉reader自动跳过这些空格。

# 假设 'spaced_data.csv' 内容是:# name, age# Alice, 30import csvwith open('spaced_data.csv', 'r', newline='', encoding='utf-8') as f:    reader = csv.reader(f, skipinitialspace=True)    for row in reader:        print(f"跳过空格后的数据: {row}") # 30前面没有空格了

这些高级选项让csv模块在处理各种“奇形怪状”的CSV文件时,依然保持了强大的适应性和灵活性。在面对非标准格式的CSV时,我通常会先用文本编辑器打开文件,观察其分隔符和引用规则,然后相应地调整csv.readercsv.writer的参数。

以上就是如何使用Python处理CSV文件?csv模块实践的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1362862.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 03:04:44
下一篇 2025年12月14日 03:05:05

相关推荐

  • 理解 Scikit-learn 的 TfidfVectorizer 工作原理

    本文将围绕 Scikit-learn 库中的 TfidfVectorizer 展开讨论。该工具用于将文本数据转换为 TF-IDF (Term Frequency-Inverse Document Frequency) 向量,是文本挖掘和自然语言处理中常用的特征提取方法。理解 TfidfVectori…

    2025年12月14日
    000
  • Python中如何操作RabbitMQ?pika消息队列实践

    在 python 中操作 rabbitmq 最常用的方式是使用 pika 库,它功能稳定且简单易用。1. 安装 pika 使用 pip install pika,并通过 blockingconnection 建立同步连接;2. 声明队列时设置 durable=true 以实现持久化,声明交换机时使用…

    2025年12月14日 好文分享
    000
  • 如何使用Python处理GIS数据?Fiona库操作指南

    fiona是一个基于gdal的python库,专用于读写矢量地理空间数据。①它支持shapefile、geojson、gpkg等格式,适合精细控制数据结构与流程的场景;②安装推荐使用conda或pip,优先conda以避免依赖问题;③读取数据通过fiona.open()函数实现,可访问feature…

    2025年12月14日 好文分享
    000
  • 如何使用Python开发CLI工具?Click库指南

    使用 python 的 click 库可快速开发 cli 工具,其核心是装饰器模式。1. 安装 click:pip install click;2. 编写命令:通过 @click.command() 定义命令函数;3. 添加参数和选项:@click.argument() 用于必填参数,@click.…

    2025年12月14日 好文分享
    000
  • Python怎样进行性能优化?代码加速技巧解析

    要提升python程序性能,需从优化技巧和工具入手。1.优先使用内置函数和列表推导式,减少循环;2.减少全局变量访问,缓存函数引用;3.根据场景选择合适数据结构如set、deque、numpy数组;4.借助numpy、cython、numba等第三方库加速;5.使用cprofile、timeit等工…

    2025年12月14日 好文分享
    000
  • Python中如何重命名数据列?columns修改教程

    在python中重命名dataframe列的最直接方法是通过赋值.columns属性。1. 将包含新列名的列表赋值给.columns,适用于整体替换所有列名;2. 新列名列表必须与原列数一致且顺序对应;3. 为避免顺序错误,可先打印当前列名确认顺序;4. 若仅修改部分列名,推荐使用.rename()…

    2025年12月14日 好文分享
    000
  • 怎样用Python处理宽表转长表?melt变形技巧

    使用pandas的melt函数是python中处理宽表转长表最直接且高效的方法。1. 通过id_vars参数指定保持不变的标识列;2. 利用value_vars参数定义需要融化的值列;3. 使用var_name和value_name分别命名新生成的变量列和值列。例如,将年份类列名转换为“年份”列,销…

    2025年12月14日 好文分享
    000
  • 如何使用Python计算数据分位点—百分位数统计方法

    百分位数用于描述数据分布,python可通过numpy和pandas计算。百分位数表示数据中特定比例的值小于等于该值,如第90百分位数。常用分位点包括25(下四分位数)、50(中位数)、75(上四分位数)。1.numpy使用numpy.percentile(data, p)计算,支持多百分位输入列表…

    2025年12月14日 好文分享
    000
  • 如何使用Python开发2D游戏?Pygame零基础

    pygame开发2d游戏需要掌握python基础语法、类与对象、坐标系统和事件驱动编程。首先,必须了解变量、数据类型、条件语句、循环和函数等python基础,这是编写游戏逻辑的前提。其次,使用类来封装游戏中的实体如玩家、敌人等,能提升代码的可维护性和扩展性。接着,理解pygame的坐标系统(左上角为…

    2025年12月14日 好文分享
    000
  • 怎样用Python处理WAV音频?wave模块详解

    python处理wav音频的核心方式是使用内置wave模块进行“读”与“写”。1. 读取wav文件时,通过wave_read对象获取参数(如声道数、采样宽度、采样率等)并读取原始字节数据;2. 写入wav文件时,通过wave_write对象设置参数并写入字节流。wave模块仅负责数据搬运,真正的信号…

    2025年12月14日 好文分享
    000
  • 怎样用Python实现数据脱敏?隐私保护方案

    数据脱敏可通过多种python方法实现,具体包括:1.替换部分字符(如手机号掩码处理),保留部分原始信息;2.使用哈希值替代原始数据,适用于需保持唯一性但不需还原的字段;3.对数值型数据加入随机扰动,保护个体隐私同时保留统计特性;4.敏感词过滤与替换,用于文本内容脱敏。每种方法均有其适用场景及注意事…

    2025年12月14日 好文分享
    000
  • Python如何处理医疗数据?DICOM文件读取教程

    python处理dicom影像的关键在于使用pydicom库,1.安装pydicom:pip install pydicom;2.读取dicom文件:使用dcmread方法加载文件;3.访问元数据:如patientname、modality等标签获取病人和图像信息;4.提取像素数据:通过pixel_…

    2025年12月14日 好文分享
    000
  • 怎样用Python实现数据离散化—cut/qcut分箱方法对比解析

    cut 和 qcut 的核心区别在于分箱依据不同。一、cut 按自定义区间分箱,适用于已知数据分布范围或需手动控制边界的情况,可设置标签但需注意边界包含情况及极值处理;二、qcut 按分位数分箱,使各区间样本量均衡,适合数据分布不均时使用,但边界不易预测且可能因重复值导致异常;三、二者区别体现在分箱…

    2025年12月14日 好文分享
    000
  • 获取 Keras 2.15.0 版本的源代码

    本文介绍了如何获取 Keras 2.15.0 版本的源代码。尽管 PyPI 上 Keras 的最新版本是 2.15.0,但 GitHub 仓库的最新 release 版本可能不是最新的。本文将指导您如何通过 Git 检出(checkout)指定版本的源代码,从而获取 Keras 2.15.0 的完整…

    2025年12月14日
    000
  • 如何获取 Keras 2.15.0 源代码:解决 PyPI 与 GitHub 版本不一致问题

    本文旨在解决 Keras 库在 PyPI 上发布的版本(如 2.15.0)与 GitHub 官方发布(Releases)页面上显示的版本(如 2.14.0)之间可能存在的差异问题。我们将详细指导读者如何通过 Git 仓库的标签功能,准确获取并检出 Keras 2.15.0 版本的完整源代码,确保开发…

    2025年12月14日
    000
  • Python如何进行数据标准化?sklearn预处理

    数据标准化在机器学习和数据分析中至关重要,尤其在使用sklearn进行预处理时。1. 使用standardscaler进行z-score标准化,通过减去均值并除以标准差使数据符合标准正态分布;2. 最小最大值标准化(min-max scaling)通过缩放至指定范围如[0,1],但对异常值敏感;3.…

    2025年12月14日 好文分享
    000
  • 如何使用Python处理BMP图像?位图操作指南

    python处理bmp图像首选pillow库,1. 因其是pil的活跃分支,全面支持python 3并持续更新;2. api设计直观易用,如image.open()、img.convert()等方法便于快速开发;3. 功能全面,支持多种图像格式及常见处理操作如裁剪、缩放、颜色转换等;4. 性能优化良…

    2025年12月14日 好文分享
    000
  • 如何用Python进行数据聚类—K-Means/DBSCAN对比

    选择聚类算法需根据数据特征和业务目标:1.k-means适合结构清晰、需指定簇数、速度快但对噪声敏感;2.dbscan无需指定簇数、能识别任意形状和离群点,但参数敏感且不适合高维数据。若数据规则且已知类别数选k-means,若分布复杂或有噪声选dbscan,并结合预处理、参数调试灵活应用。 如果你想…

    2025年12月14日 好文分享
    000
  • Python怎样进行数据聚类?K-means算法实现

    数据聚类在python中常用k-means算法实现,其步骤包括:1.数据准备需标准化处理并清理缺失值;2.使用sklearn.cluster.kmeans进行聚类,设置n_clusters和random_state以获得稳定结果;3.通过肘部法确定最佳聚类数,依据inertia值绘制曲线选择“肘部”…

    2025年12月14日 好文分享
    000
  • 如何使用Python操作SQLite?轻量数据库教程

    python 操作 sqlite 数据库的步骤如下:1. 使用 sqlite3.connect() 连接数据库并创建文件;2. 通过 cursor 执行 sql 创建数据表;3. 使用参数化查询插入、更新、删除数据;4. 用 select 查询记录并处理结果;5. 操作完成后调用 commit() …

    2025年12月14日 好文分享
    000

发表回复

登录后才能评论
关注微信