如何用Python读写JSON/CSV/Excel文件?

Python处理JSON、CSV和Excel文件需根据数据格式特性和需求选择合适库:JSON用内置json模块实现序列化与反序列化;CSV可用csv模块或pandas进行读写,后者更适用于表格数据操作;Excel文件通常用pandas(结合openpyxl引擎)高效处理多工作表和复杂结构,或用openpyxl进行精细单元格控制。

如何用python读写json/csv/excel文件?

Python处理JSON、CSV和Excel文件,核心在于理解这些数据格式的结构特性,并选择合适的库进行数据的序列化(Python对象转文件格式)与反序列化(文件格式转Python对象)。对于JSON和CSV,Python提供了内置的

json

csv

模块;而对于Excel,通常我们会依赖强大的第三方库如

pandas

openpyxl

来高效且灵活地完成读写操作。选择哪个工具,往往取决于你的具体需求:是简单的数据交换,还是复杂的数据分析与处理。

解决方案

JSON文件读写

JSON(JavaScript Object Notation)是一种轻量级的数据交换格式,易于人阅读和编写,也易于机器解析和生成。Python的

json

模块是处理JSON的标配。

读取JSON文件:

立即学习“Python免费学习笔记(深入)”;

import json# 假设有一个名为'data.json'的文件# 内容可能像这样:{"name": "Alice", "age": 30, "isStudent": false, "courses": ["Math", "Physics"]}try:    with open('data.json', 'r', encoding='utf-8') as f:        data = json.load(f) # 从文件中加载JSON数据    print("从JSON文件读取的数据:", data)    print("Alice的年龄是:", data['age'])except FileNotFoundError:    print("data.json 文件未找到。")except json.JSONDecodeError:    print("data.json 文件格式不正确。")# 如果是JSON字符串,而不是文件json_string = '{"city": "New York", "population": 8000000}'data_from_string = json.loads(json_string) # 从字符串加载JSON数据print("从JSON字符串读取的数据:", data_from_string)

写入JSON文件:

import jsonnew_data = {    "name": "Bob",    "age": 25,    "isStudent": True,    "grades": {"Math": "A", "English": "B+"}}with open('output.json', 'w', encoding='utf-8') as f:    json.dump(new_data, f, ensure_ascii=False, indent=4) # 写入JSON数据到文件print("数据已写入 output.json 文件。")# 转换为JSON字符串json_output_string = json.dumps(new_data, ensure_ascii=False, indent=4)print("转换为JSON字符串:n", json_output_string)
ensure_ascii=False

允许非ASCII字符直接写入,而

indent=4

则让输出的JSON格式化,更易读。

CSV文件读写

CSV(Comma Separated Values)是一种纯文本文件,以逗号分隔值来存储表格数据。Python内置的

csv

模块非常适合处理这类文件,而

pandas

则提供了更高级、更便捷的接口。

使用

csv

模块读取CSV文件:

import csv# 假设有一个名为'students.csv'的文件# 内容可能像这样:# Name,Age,Major# Alice,20,Computer Science# Bob,22,Mathematicstry:    with open('students.csv', 'r', encoding='utf-8', newline='') as f:        reader = csv.reader(f) # 创建一个reader对象        header = next(reader) # 读取标题行        print("CSV文件标题:", header)        for row in reader:            print("CSV文件行数据:", row)    # 使用DictReader可以更方便地按字典形式访问数据    with open('students.csv', 'r', encoding='utf-8', newline='') as f:        dict_reader = csv.DictReader(f)        for row_dict in dict_reader:            print("CSV文件字典行数据:", row_dict['Name'], row_dict['Age'])except FileNotFoundError:    print("students.csv 文件未找到。")except Exception as e:    print(f"读取CSV文件时发生错误: {e}")
newline=''

参数很重要,它可以防止在Windows系统上写入时出现额外的空行。

使用

csv

模块写入CSV文件:

import csvdata_to_write = [    ['Name', 'Age', 'City'],    ['Charlie', 28, 'London'],    ['Diana', 35, 'Paris']]with open('output.csv', 'w', encoding='utf-8', newline='') as f:    writer = csv.writer(f) # 创建一个writer对象    writer.writerows(data_to_write) # 写入多行print("数据已写入 output.csv 文件。")# 使用DictWriter写入data_dict_to_write = [    {'Name': 'Eve', 'Age': 29, 'City': 'Berlin'},    {'Name': 'Frank', 'Age': 40, 'City': 'Rome'}]fieldnames = ['Name', 'Age', 'City'] # 必须指定字段名with open('output_dict.csv', 'w', encoding='utf-8', newline='') as f:    dict_writer = csv.DictWriter(f, fieldnames=fieldnames)    dict_writer.writeheader() # 写入标题行    dict_writer.writerows(data_dict_to_write)print("字典数据已写入 output_dict.csv 文件。")

使用

pandas

读写CSV文件:

pandas

是处理表格数据的利器,它将CSV文件直接映射到DataFrame对象,操作起来非常直观。

import pandas as pd# 读取CSV文件try:    df_csv = pd.read_csv('students.csv', encoding='utf-8')    print("n使用pandas读取CSV文件:n", df_csv)except FileNotFoundError:    print("students.csv 文件未找到。")# 写入CSV文件data_for_df = {'Name': ['Grace', 'Heidi'], 'Age': [24, 31], 'City': ['Tokyo', 'Sydney']}new_df_csv = pd.DataFrame(data_for_df)new_df_csv.to_csv('pandas_output.csv', index=False, encoding='utf-8') # index=False 不写入行索引print("使用pandas数据已写入 pandas_output.csv 文件。")

Excel文件读写

Excel文件(.xlsx, .xls)通常比CSV更复杂,因为它包含多个工作表、格式信息、公式等。

pandas

openpyxl

(主要用于.xlsx文件)是处理Excel的两种主要工具。

使用

pandas

读写Excel文件:

pandas

在处理结构化数据时非常强大,读写Excel文件是其核心功能之一。

import pandas as pd# 假设有一个名为'grades.xlsx'的Excel文件# 包含Sheet1和Sheet2,Sheet1有姓名和分数try:    # 读取整个Excel文件,默认读取第一个工作表    df_excel = pd.read_excel('grades.xlsx', engine='openpyxl')    print("n使用pandas读取Excel文件(默认第一个工作表):n", df_excel)    # 读取指定工作表    df_sheet2 = pd.read_excel('grades.xlsx', sheet_name='Sheet2', engine='openpyxl')    print("n使用pandas读取Excel文件(指定Sheet2):n", df_sheet2)except FileNotFoundError:    print("grades.xlsx 文件未找到。")except Exception as e:    print(f"读取Excel文件时发生错误: {e}")# 写入Excel文件data_for_excel = {    'Product': ['Laptop', 'Mouse', 'Keyboard'],    'Price': [1200, 25, 75],    'Quantity': [10, 50, 30]}df_new_excel = pd.DataFrame(data_for_excel)# 写入到新的Excel文件df_new_excel.to_excel('pandas_products.xlsx', index=False, sheet_name='Inventory', engine='openpyxl')print("使用pandas数据已写入 pandas_products.xlsx 文件。")# 写入到现有Excel文件的不同工作表# 需要使用ExcelWriterwith pd.ExcelWriter('pandas_products.xlsx', engine='openpyxl', mode='a') as writer:    df_sheet2_data = pd.DataFrame({'City': ['Paris', 'London'], 'Population': [2141000, 8982000]})    df_sheet2_data.to_excel(writer, sheet_name='Cities', index=False)print("新工作表 'Cities' 已添加到 pandas_products.xlsx。")

注意

engine='openpyxl'

是推荐的写法,因为它支持.xlsx格式,并且是现代Excel文件的标准。

使用

openpyxl

读写Excel文件:

openpyxl

提供了更底层的控制,你可以精确地操作工作簿、工作表和单元格。它非常适合那些不需要

pandas

的DataFrame结构,但需要精细控制Excel文件内容的场景。

from openpyxl import Workbook, load_workbook# 写入Excel文件wb = Workbook() # 创建一个新的工作簿ws = wb.active # 获取活动工作表,默认名为'Sheet'ws.title = "Sales Data" # 重命名工作表# 写入标题行ws.append(['Date', 'Region', 'Amount'])# 写入数据ws.append(['2023-01-01', 'East', 100])ws.append(['2023-01-02', 'West', 150])# 创建另一个工作表ws2 = wb.create_sheet("Summary")ws2['A1'] = "Total Sales"ws2['B1'] = 250wb.save("openpyxl_sales.xlsx")print("使用openpyxl数据已写入 openpyxl_sales.xlsx 文件。")# 读取Excel文件try:    wb_read = load_workbook("openpyxl_sales.xlsx")    sheet_names = wb_read.sheetnames    print("n使用openpyxl读取Excel文件的工作表名称:", sheet_names)    # 读取指定工作表    sales_sheet = wb_read["Sales Data"]    for row in sales_sheet.iter_rows(min_row=1, max_col=3, values_only=True):        print("从Sales Data读取:", row)except FileNotFoundError:    print("openpyxl_sales.xlsx 文件未找到。")

Python处理大型JSON/CSV/Excel文件时有哪些性能优化技巧?

在处理大型文件时,内存占用和处理速度往往成为瓶颈。我个人在处理GB级别的数据时,经常会遇到内存溢出或者程序运行缓慢的问题,这让我不得不深入思考如何优化。

对于JSON文件,如果文件非常大,一次性

json.load()

可能会耗尽内存。这时,可以考虑使用流式解析库,比如

ijson

。它不会一次性将整个JSON结构加载到内存中,而是像一个迭代器一样,逐个解析JSON中的元素。这对于处理日志文件或API响应中包含大量记录的超大JSON文件特别有用。虽然用起来比

json

模块稍微复杂一点,但当你面对内存墙时,它绝对是救星。

CSV文件的优化策略则更为多样。首先,

pandas.read_csv()

本身就非常高效,因为它底层是用C语言实现的。但即便如此,对于亿级行的数据,它也可能吃不消。这时,有几个办法:

chunksize

参数:

pd.read_csv('large.csv', chunksize=10000)

会返回一个迭代器,每次读取指定行数的数据块(DataFrame)。这样你可以逐块处理数据,而不是一次性加载所有。这就像吃一头大象,你得一口一口来。

usecols

参数: 如果你只需要CSV文件中的几列,明确指定

usecols=['col1', 'col2']

可以显著减少内存占用,因为

pandas

只会加载你需要的列。

dtype

参数: 提前指定列的数据类型(例如

{'age': int, 'salary': float}

),可以帮助

pandas

更有效地分配内存,避免默认的宽泛类型(如

object

)带来的额外开销。原生

csv

模块: 对于那些只需要简单行处理,不需要DataFrame复杂功能的场景,Python内置的

csv

模块在内存效率上可能更高,因为它每次只处理一行。

Excel文件的优化相对复杂一些,因为Excel文件本身就比CSV更重。

pandas

chunksize

虽然

pandas.read_excel()

没有直接的

chunksize

参数,但你可以通过

openpyxl

先加载工作簿,然后逐行读取,再将这些行转换为小的DataFrame。不过,这会增加代码的复杂性。

usecols

dtype

同样适用于

pandas.read_excel()

,能有效减少内存。

openpyxl

当你需要对Excel文件进行非常精细的、非数据分析性质的操作时,

openpyxl

是更好的选择。它可以让你只加载特定的工作表,甚至只加载特定单元格区域,从而避免将整个工作簿加载到内存中。例如,

load_workbook(filename, read_only=True)

以只读模式打开,并且

data_only=True

可以只加载单元格的计算结果而不是公式,这在某些情况下也能节省资源。

总的来说,处理大型文件,核心思想就是“分而治之”——不要试图一次性加载所有数据,而是分块、按需加载,或者选择更内存高效的工具。

如何在Python中处理JSON/CSV/Excel文件的编码问题和异常?

编码问题和异常处理,这是我日常工作中经常遇到的“小麻烦”,尤其是在处理来自不同源的数据时。一个文件看起来正常,结果一读就报错

UnicodeDecodeError

,真是让人头大。

编码问题

Python 3默认使用UTF-8编码,这是好事,因为UTF-8是目前最通用的编码。但总有些老旧系统或特定软件会生成其他编码的文件,比如GBK、Latin-1、CP1252等。

open()

函数的

encoding

参数: 这是解决编码问题的核心。无论是

json.load()

/

dump()

还是

csv.reader()

/

writer()

,它们都依赖于

open()

函数来处理文件。当你遇到

UnicodeDecodeError

时,首先尝试指定

encoding

参数。

# 尝试多种编码encodings_to_try = ['utf-8', 'gbk', 'latin-1', 'cp1252']for enc in encodings_to_try:    try:        with open('some_file.csv', 'r', encoding=enc) as f:            # 成功读取,进行后续处理            print(f"文件成功以 {enc} 编码读取。")            break    except UnicodeDecodeError:        print(f"尝试 {enc} 编码失败。")    except FileNotFoundError:        print("文件未找到。")        breakelse:    print("所有尝试的编码都失败了,文件可能使用了不常见的编码或已损坏。")

pandas

encoding

参数:

pd.read_csv()

pd.read_excel()

也提供了

encoding

参数,用法类似。

pd.read_csv('data.csv', encoding='gbk')

BOM(Byte Order Mark): 有时UTF-8文件会带BOM头,这可能会导致一些解析器出错。

open()

函数通常能自动处理UTF-8 BOM,但如果遇到问题,可以尝试

encoding='utf-8-sig'

异常处理

健壮的代码必须能够优雅地处理错误,而不是直接崩溃。

try-except

块是你的好朋友。

FileNotFoundError

文件不存在是最常见的错误。

try:    with open('non_existent_file.txt', 'r') as f:        content = f.read()except FileNotFoundError:    print("错误:文件不存在,请检查路径。")

json.JSONDecodeError

当JSON文件内容不符合JSON格式规范时会抛出。

import jsontry:    json.loads('{"key": "value",}') # 逗号是错误的except json.JSONDecodeError as e:    print(f"JSON解析错误: {e}")

csv.Error

csv

模块在遇到格式不正确的CSV行时可能会抛出此异常,例如引号不匹配。

import csvfrom io import StringIOmalformed_csv = StringIO('col1,col2n"value1,value2n') # 缺少结束引号try:    reader = csv.reader(malformed_csv)    for row in reader:        print(row)except csv.Error as e:    print(f"CSV格式错误: {e}")

pandas

openpyxl

相关的异常:

BadZipFile

(from

zipfile

module, often wrapped by

openpyxl

or

pandas

): 当Excel文件损坏或不是一个有效的zip文件时(.xlsx文件本质上是zip压缩包)。

KeyError

: 尝试访问不存在的工作表名称或列名时。

IndexError

: 尝试访问不存在的行或列索引时。

ValueError

: 数据类型转换失败时。

我的经验是,不要害怕使用

try-except

。在关键的文件操作点,总是预设可能发生的错误,并给出有意义的反馈或回滚机制。这不仅让程序更稳定,也让调试变得更容易。

Python处理这些文件格式时,

pandas

与原生库(

json

/

csv

/

openpyxl

)的选择与权衡是什么?

这是一个很好的问题,因为我发现很多人在Python中处理数据时,要么无脑

pandas

,要么死守原生库,而没有真正理解它们各自的优势和适用场景。其实,这就像选择交通工具:去楼下便利店你不会开飞机,长途旅行你也不会步行。

原生库(

json

,

csv

,

openpyxl

)的优势与适用场景:

精细控制与低开销: 原生库提供了对文件格式最直接、最底层的操作接口。你可以逐行、逐个字段地读取CSV,逐个键值对地处理JSON

以上就是如何用Python读写JSON/CSV/Excel文件?的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1370378.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 10:29:50
下一篇 2025年12月14日 10:29:53

相关推荐

  • SQLAlchemy模型分离与关系维护:多文件项目结构实践

    在大型Python项目中,将SQLAlchemy模型分离到不同文件有助于提升代码可维护性。本教程详细阐述了如何在保持模型间关系(如一对多)的同时,将SQLAlchemy模型解耦到独立文件中。核心在于正确导入关联模型类,并统一管理declarative_base对象,以确保ORM映射的正确性。 随着项…

    好文分享 2025年12月14日
    000
  • 解决NetHunter上GeoIP包安装失败问题:兼容性与替代方案

    在NetHunter环境下,尝试使用pip安装GeoIP包时,可能会遇到编译错误,提示缺少GeoIP.h文件或其他与Python版本不兼容的问题。这通常是因为GeoIP包已经很久没有更新,与较新版本的Python(例如3.11.6)不兼容。 如摘要所述,问题的核心在于GeoIP包的维护状态。该包的最…

    2025年12月14日
    000
  • 如何理解Python的鸭子类型(Duck Typing)?

    鸭子类型关注对象行为而非具体类型,只要对象具备所需方法即可被使用,如make_it_quack函数可接受任何有quack方法的对象,提升了代码灵活性与可维护性。 在Python的世界里,理解“鸭子类型”(Duck Typing)其实很简单:它关注的不是一个对象“是什么类型”,而是它“能做什么”。用那…

    2025年12月14日
    000
  • 列表推导式和生成器表达式的区别是什么?

    列表推导式立即生成完整列表,占用内存大但访问快;生成器表达式按需计算,内存占用小适合处理大数据流。 列表推导式(List Comprehension)和生成器表达式(Generator Expression)在Python中都是创建序列的强大工具,但它们的核心区别在于处理数据的方式和时机。简单来说,…

    2025年12月14日
    000
  • 面向对象编程:__new__ 和 __init__ 方法的区别

    new 方法的核心角色是创建并返回类的实例,控制对象的创建过程。它在实例化时先于 init 被调用,负责内存分配与实例生成,决定对象的类型,可实现单例、不可变对象等高级模式。 在Python的面向对象编程中, __new__ 和 __init__ 方法是对象生命周期中两个至关重要的阶段,它们的核心区…

    2025年12月14日
    000
  • 解决Python安装旧版GeoIP库的兼容性问题及现代替代方案

    本文探讨了在现代Python环境(如Python 3.11.6)中安装过时GeoIP库(版本1.3.2,2014年发布)时遇到的兼容性错误,主要表现为C头文件缺失导致编译失败。文章分析了问题根源在于库的长期未维护,并强烈建议放弃使用该旧库。作为替代方案,教程详细介绍了如何使用MaxMind官方推荐的…

    2025年12月14日
    000
  • 使用Tabula-py精确提取PDF表格数据及优化处理

    Tabula-py是Python中用于从PDF提取表格数据的强大工具。本文将详细介绍如何利用lattice参数提升表格提取的准确性,并进一步通过Pandas对提取结果进行数据清洗,特别是处理常见的冗余“Unnamed”列,从而实现更精确、更符合实际需求的高质量PDF表格数据提取。 1. Tabula…

    2025年12月14日
    000
  • PySpark中利用窗口函数按序填充DataFrame缺失值的高效策略

    本教程详细介绍了如何在PySpark DataFrame中高效地按序填充缺失值。针对 group_id 列中根据 row_id 顺序出现的 null 值,我们将利用PySpark的窗口函数(Window)结合 last 函数及 ignorenulls 参数,实现将缺失值填充为其所在组的最后一个非空值…

    2025年12月14日
    000
  • 使用 PySpark 顺序填充 DataFrame 中的缺失值

    本文介绍了如何使用 PySpark 顺序填充 DataFrame 中的缺失值。通过使用窗口函数和 last 函数,我们可以高效地将每个 group_id 中的空值填充为该组的第一个非空值,从而解决在大型 DataFrame 中处理缺失值的问题。该方法适用于已知 row_id 是顺序且唯一的情况。 在…

    2025年12月14日
    000
  • PostgreSQL处理超万列CSV数据:JSONB与GIN索引的实践指南

    本文旨在解决将包含超万列的CSV数据导入PostgreSQL时遇到的列限制问题。通过采用jsonb数据类型存储不常用或次要列,并结合GIN索引优化查询性能,本教程提供了一种高效、灵活的数据管理方案,避免了传统关系型数据库的列数限制,同时确保了数据的可查询性和可维护性。 挑战:PostgreSQL的列…

    2025年12月14日
    000
  • PySpark数据框:高效实现序列化缺失值前向填充

    本文详细介绍了如何在PySpark DataFrame中高效地实现基于序列的前向填充缺失值。针对group_id等列中出现的空值,通过利用PySpark的窗口函数(Window.orderBy和F.last),能够根据row_id的顺序,将前一个非空值填充到后续的空值位置,确保数据的完整性和逻辑连贯…

    2025年12月14日
    000
  • 优化 Tabula-py 表格提取:解决不完整数据与冗余列的实践指南

    本教程详细指导如何使用 tabula-py 库从 PDF 文件中高效、精准地提取表格数据。文章从基础的表格提取方法入手,深入探讨 lattice 模式在处理结构化表格中的应用,并提供多种策略,如 Pandas 后处理和区域精确选择,以解决常见的冗余列和不完整数据问题,确保提取结果的准确性和可用性。 …

    2025年12月14日
    000
  • PySpark DataFrame中基于前一个非空值顺序填充缺失数据

    本教程详细介绍了如何在PySpark DataFrame中,利用窗口函数高效地实现基于前一个非空值的顺序填充(Forward Fill)缺失数据。针对具有递增 row_id 和稀疏 group_id 的场景,我们将演示如何通过 Window.orderBy 结合 F.last(ignorenulls…

    2025年12月14日
    000
  • PostgreSQL超万列CSV数据高效管理:JSONB方案详解

    面对拥有超过一万列的CSV数据,传统关系型数据库的列限制和管理复杂性成为挑战。本文将介绍一种利用PostgreSQL的jsonb数据类型来高效存储和管理海量稀疏列数据的方案。通过将核心常用列独立存储,而不常用或次要的列聚合为JSON对象存入jsonb字段,结合GIN索引优化查询,实现数据的高效导入、…

    2025年12月14日
    000
  • 创建可存储超过10000列CSV表数据的PostgreSQL数据库

    将包含大量列(例如超过10000列)的CSV数据导入PostgreSQL数据库,直接创建表可能会超出数据库的列数限制。一种有效的解决方案是将常用和重要的列作为普通列存储,而将不常用和不太重要的列转换为JSONB格式存储在单个列中。以下是详细步骤和注意事项: 1. 设计表结构 首先,需要确定哪些列是常…

    2025年12月14日
    000
  • 依赖管理:requirements.txt 和 Pipenv/Poetry

    Pipenv和Poetry通过自动化虚拟环境与锁文件机制解决依赖管理问题。1. 它们自动创建隔离环境,避免全局污染;2. 使用Pipfile.lock或poetry.lock锁定所有依赖精确版本,确保构建可复现;3. 内置依赖解析器减少版本冲突;4. 支持开发与生产依赖分离,提升团队协作效率。相较于…

    2025年12月14日
    000
  • PostgreSQL处理超万列CSV数据:JSONB与GIN索引的实战指南

    当CSV文件包含数千甚至上万列数据时,传统关系型数据库的列限制成为导入和管理难题。本教程将介绍一种高效策略:将核心常用列作为标准字段存储,而将大量不常用或稀疏的列整合到PostgreSQL的jsonb类型中。文章将涵盖数据库模式设计、数据导入概念以及如何利用GIN索引实现对jsonb字段内数据的快速…

    2025年12月14日
    000
  • PostgreSQL处理超宽表:利用JSONB高效存储和管理稀疏数据

    面对CSV文件包含上万列数据,传统关系型数据库的列限制成为挑战。本文将介绍如何在PostgreSQL中利用jsonb数据类型高效存储和管理这些超宽表数据,特别是那些不常用但又需要保留的稀疏列。通过将不重要列封装为JSON对象,并结合GIN索引优化查询,我们可以克服列数限制,实现灵活的数据模型和高性能…

    2025年12月14日
    000
  • Django中的MTV模式是什么?

    Django的MTV模式由Model、Template、View三部分构成:Model负责数据定义与操作,Template负责页面展示,View处理业务逻辑并协调前两者。其本质是MVC模式的变体,但命名更贴合Web开发语境,强调请求响应流程中各组件职责。通过应用拆分、代码解耦、ORM优化、缓存机制及…

    2025年12月14日
    000
  • Python中的可变对象和不可变对象有哪些?区别是什么?

    Python中对象分为可变和不可变两类,区别在于创建后能否修改其内容。可变对象(如列表、字典、集合)允许原地修改,内存地址不变;不可变对象(如整数、字符串、元组)一旦创建内容不可更改,任何“修改”实际是创建新对象。这种机制影响函数参数传递、哈希性、并发安全和性能优化。例如,不可变对象可作为字典键,因…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信