Pandas DataFrame超宽结构重塑:从扁平化JSON到规范化多表

Pandas DataFrame超宽结构重塑:从扁平化JSON到规范化多表

本文详细介绍了如何使用Pandas处理由扁平化JSON数据导致的超宽DataFrame。通过melt()函数将宽格式数据转换为长格式,并结合字符串解析与pivot_table()实现数据重构,从而将嵌套结构拆分为更易于分析的规范化表格,有效解决列数过多的问题。

1. 引言:超宽DataFrame的挑战与数据重构需求

在数据处理过程中,我们经常会遇到从扁平化(flattened)的json或类似结构中加载数据到pandas dataframe的情况。当原始json包含多层嵌套的列表或字典,并且这些嵌套结构被展开为独立的列时,dataframe的列数可能会急剧增加,甚至超过1024列,这不仅使得数据难以直观理解和分析,也可能导致性能问题。例如,一个包含多个员工信息(每个员工有工资、多个技能id)的json,在扁平化后可能产生诸如employee_0_salary, employee_0_skills_0_id, employee_0_skills_1_id, employee_1_salary等大量列。

我们的目标是将这种超宽的DataFrame重构为更合理、更规范的格式,例如,将每个员工的信息拆分成独立的行,形成一个包含id、员工索引、工资、技能ID等列的表格,从而便于后续的数据分析和处理。

2. 核心工具:pandas.melt()实现宽到长转换

解决超宽DataFrame问题的首要步骤是将其从宽格式(wide format)转换为长格式(long format)。Pandas库中的melt()函数是实现这一转换的强大工具。melt()函数可以将DataFrame中的一列或多列“融化”为两列:一列存储原始的列名(通常命名为variable),另一列存储对应的值(通常命名为value)。

2.1 melt()函数详解

id_vars: 一个列表,指定哪些列是标识符变量,它们在转换后会保持不变,作为新的长格式DataFrame的标识列。value_vars: 一个列表,指定哪些列是要被“融化”的变量。如果省略此参数,melt()将融化所有非id_vars的列。var_name: 一个字符串,用于指定存储原始列名的新列的名称(默认为variable)。value_name: 一个字符串,用于指定存储原始列值的新列的名称(默认为value)。

2.2 示例:应用melt()

假设我们有以下一个模拟的超宽DataFrame:

import pandas as pd# 模拟超宽DataFramedf = pd.DataFrame({    'id': [1, 2, 1],    'name': ['joe','sue', 'fred'],    'employee_0_salary': [30000, 35000, 40000],    'employee_0_skills_0_id': [101, 102, 103],    'employee_0_skills_1_id': [103, 104, 105],    'employee_1_salary': [32000, 36000, 37000],    'employee_1_skills_0_id': [105, 106, 107],    'employee_1_skills_1_id': [108, 109, 110], # 增加一个技能列以便后续演示})print("原始DataFrame:")print(df)

输出:

原始DataFrame:   id  name  employee_0_salary  employee_0_skills_0_id  employee_0_skills_1_id  employee_1_salary  employee_1_skills_0_id  employee_1_skills_1_id0   1   joe              30000                     101                     103              32000                     105                     1081   2   sue              35000                     102                     104              36000                     106                     1092   1  fred              40000                     103                     105              37000                     107                     110

现在,我们使用melt()函数将其转换为长格式。我们将id和name作为标识符变量:

meltdf = df.melt(id_vars=['id', 'name'])print("n使用melt()转换后的DataFrame:")print(meltdf.head(10)) # 只显示前10行

输出:

使用melt()转换后的DataFrame:   id  name                variable  value0   1   joe       employee_0_salary  300001   2   sue       employee_0_salary  350002   1  fred       employee_0_salary  400003   1   joe  employee_0_skills_0_id    1014   2   sue  employee_0_skills_0_id    1025   1  fred  employee_0_skills_0_id    1036   1   joe  employee_0_skills_1_id    1037   2   sue  employee_0_skills_1_id    1048   1  fred  employee_0_skills_1_id    1059   1   joe       employee_1_salary  32000

可以看到,原始的员工相关列被“融化”成了variable和value两列。

3. 解析variable列:提取嵌套实体信息

melt操作后,所有的关键嵌套信息(例如“哪个员工”和“哪个属性”)都被编码在variable列的字符串中。我们需要从这些字符串中提取结构化的信息,例如员工的索引(0, 1, …)和具体的属性名称(salary, skills_0_id, skills_1_id)。

这通常可以通过字符串操作或正则表达式来完成。考虑到列名模式通常是employee_X_attribute_Y,我们可以使用正则表达式来精确提取。

# 使用正则表达式从variable列中提取员工索引和属性名称# 模式:'employee_(d+)_(.*)' 匹配 'employee_' 后跟数字(员工索引),再跟 '_' 后所有内容(属性名称)extracted_data = meltdf['variable'].str.extract(r'employee_(d+)_(.*)')# 将提取的数据添加到meltdf中,并命名新列meltdf['employee_idx'] = extracted_data[0].astype(int) # 员工索引meltdf['attribute'] = extracted_data[1] # 属性名称print("n解析variable列后的DataFrame:")print(meltdf.head(10))

输出:

解析variable列后的DataFrame:   id  name                variable  value  employee_idx      attribute0   1   joe       employee_0_salary  30000             0         salary1   2   sue       employee_0_salary  35000             0         salary2   1  fred       employee_0_salary  40000             0         salary3   1   joe  employee_0_skills_0_id    101             0  skills_0_id4   2   sue  employee_0_skills_0_id    102             0  skills_0_id5   1  fred  employee_0_skills_0_id    103             0  skills_0_id6   1   joe  employee_0_skills_1_id    103             0  skills_1_id7   2   sue  employee_0_skills_1_id    104             0  skills_1_id8   1  fred  employee_0_skills_1_id    105             0  skills_1_id9   1   joe       employee_1_salary  32000             1         salary

现在,meltdf中有了id、name、employee_idx、attribute和value这些列,数据结构变得清晰。

4. 使用pivot_table()重塑数据:构建规范化表格

有了id、name、employee_idx、attribute和value这些列,我们就可以使用pivot_table()函数将数据重塑为最终的目标格式:每行代表一个员工的详细信息。

pivot_table()函数与pivot()类似,但功能更强大,可以处理重复索引,并支持聚合功能。在这里,我们希望以id、name和employee_idx作为新的行标识符,以attribute作为新的列名,并以value填充单元格。

# 使用pivot_table将数据重塑为每行一个员工的格式# index: 定义新DataFrame的行索引# columns: 定义新DataFrame的列名# values: 定义填充单元格的值normalized_df = meltdf.pivot_table(    index=['id', 'name', 'employee_idx'],    columns='attribute',    values='value')# 重置索引,将id, name, employee_idx从MultiIndex转换为普通列normalized_df = normalized_df.reset_index()# 清理列名:pivot_table后columns会变成MultiIndex,需要扁平化normalized_df.columns.name = None # 移除columns的名称# 如果需要,可以进一步重命名列# normalized_df = normalized_df.rename(columns={'skills_0_id': 'skill_id_0', 'skills_1_id': 'skill_id_1'})print("n最终规范化后的DataFrame:")print(normalized_df)

输出:

最终规范化后的DataFrame:   id  name  employee_idx  salary  skills_0_id  skills_1_id0   1   fred             0   40000          103          1051   1   fred             1   37000          107          1102   1    joe             0   30000          101          1033   1    joe             1   32000          105          1084   2    sue             0   35000          102          1045   2    sue             1   36000          106          109

现在,我们成功地将一个超宽的DataFrame转换成了一个更易于管理和分析的规范化表格。每一行代表一个特定的员工(由id和employee_idx共同标识),其工资和技能ID都作为独立的列呈现。

5. 注意事项与最佳实践

列名模式的统一性: 这种重构方法高度依赖于原始DataFrame列名的一致性和可解析性。确保所有需要重构的列都遵循相同的命名模式(如entity_index_attribute)。数据类型转换: melt()操作会将value列的数据类型统一为object,因为原始列可能包含不同类型的数据。在pivot_table()之后,可能需要手动将相关列(如salary, skills_id)转换回数值类型,例如normalized_df[‘salary’] = pd.to_numeric(normalized_df[‘salary’])。性能考量: 对于包含数百万行或更多数据的超大型DataFrame,melt()和pivot_table()操作可能会消耗大量内存和CPU资源。在这种情况下,可以考虑使用Dask DataFrame进行分布式计算,或者分块处理数据。

以上就是Pandas DataFrame超宽结构重塑:从扁平化JSON到规范化多表的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1373569.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 13:22:12
下一篇 2025年12月14日 13:22:28

相关推荐

  • Pandas DataFrame行提取教程:避免eq()与列表类型不匹配的陷阱

    本教程深入探讨了在Pandas DataFrame中根据聚合结果(如idxmax())进行行提取时,因数据类型不匹配(将单元素列表误用作标量字符串)导致返回空DataFrame的常见问题。文章详细解释了Series.eq()方法对输入类型(列表与标量)的期望,并提供了通过列表解包(ddate[0])…

    好文分享 2025年12月14日
    000
  • 如何使用Django从用户资料预填充表单字段

    本文详细介绍了在Django应用中,如何利用用户的个人资料信息(如全名)来预填充表单字段。核心方法是在处理GET请求时,通过Django表单的initial参数传递预设值,从而提升用户体验。文章将通过具体的代码示例,展示如何在视图函数中正确获取用户资料并将其应用到表单中,同时强调了在POST请求中避…

    2025年12月14日
    000
  • Django表单字段自动填充:从用户资料预填充数据

    本文详细讲解了如何在Django中实现表单字段的自动填充,特别是利用已登录用户的个人资料数据。核心方法是在处理GET请求时,通过initial参数将用户资料中的信息预设到表单中,从而提升用户体验,避免重复输入。教程将通过一个评论表单的实例,展示如何在视图函数中正确获取用户资料并将其应用到表单初始化中…

    2025年12月14日
    000
  • Django表单字段预填充:用户个人信息自动加载实践

    本文详细介绍了在Django应用中如何正确地预填充表单字段,特别是利用已登录用户的个人资料数据(如全名)。通过分析常见的错误用法,文章强调了在处理GET请求时使用initial参数来初始化表单的重要性,并提供了清晰的代码示例和最佳实践,确保用户体验的流畅性。 理解Django表单与数据预填充 在开发…

    2025年12月14日
    000
  • 在Django中利用用户资料预填充表单字段

    本教程详细阐述了如何在Django应用中,利用已登录用户的个人资料信息(如全名)预填充表单字段。文章重点解析了Django表单initial参数的正确使用场景,强调了在GET请求时初始化表单的重要性,并提供了清晰的代码示例和注意事项,以确保表单数据预填充的准确性和用户体验的流畅性。 1. 理解表单预…

    2025年12月14日
    000
  • Python怎么从字典中删除一个键值对_Python字典键值对删除操作

    删除Python字典键值对主要有四种方式:1. 使用del语句可直接删除指定键,但键不存在时会抛出KeyError;2. 使用pop()方法能删除并返回对应值,且可通过default参数避免KeyError;3. popitem()用于移除并返回最后一个插入的键值对,适用于LIFO场景;4. 字典推…

    2025年12月14日
    000
  • python pickle模块怎么用_python pickle对象序列化与反序列化教程

    pickle是Python对象序列化工具,可将对象转为字节流存储或传输,并能还原,支持自定义类实例;相比JSON,pickle专用于Python,能处理复杂对象但不安全,不可读,仅限可信环境使用;常用于模型保存、缓存、状态持久化等内部场景。 Python的pickle模块,简单来说,就是Python…

    2025年12月14日
    000
  • 比较两个 Linestring 地理数据框的几何差异

    本文详细介绍了如何使用 geopandas 库有效地比较两个包含 Linestring 几何对象的地理数据框(GeoDataFrame),并找出它们之间的几何差异。通过利用 geopandas.overlay 函数及其 how=”symmetric_difference” 参…

    2025年12月14日
    000
  • 解决Django中自定义ForeignKey表单字段的必填问题

    本教程旨在解决Django应用中,尽管模型层已将ForeignKey字段设置为可选(blank=True, null=True),但在自定义表单中该字段仍被强制要求填写的问题。核心解决方案是在自定义的forms.ModelChoiceField中明确设置required=False,以确保表单验证与…

    2025年12月14日
    000
  • 解决Python requests循环请求中遇到的401未授权错误

    在Python使用requests库循环抓取数据时,频繁请求可能导致服务器返回401未授权错误。本文将详细介绍如何通过引入重试机制、设置请求延迟以及利用多线程并发处理来构建一个健壮的网络爬虫,有效应对此类问题,确保数据稳定获取,同时优化抓取效率。 理解HTTP 401未授权错误及其成因 HTTP状态…

    2025年12月14日
    000
  • Python中十六进制地址到字节序列转换的正确姿势与常见误区

    本文深入探讨了在Python中将十六进制地址(如内存地址)转换为特定字节序列的方法,尤其关注在处理大小端序和Python字节字符串表示时可能遇到的常见困惑。文章详细介绍了struct模块的pack函数作为实现此转换的推荐方案,并澄清了pwnlib等库函数的正确用法,强调了Python字节字符串显示方…

    2025年12月14日
    000
  • 解决Selenium启动Chrome浏览器SSL证书验证失败问题

    本文旨在帮助解决在使用Selenium和Python启动Chrome浏览器时遇到的SSL证书验证失败问题。通过分析错误信息,我们发现问题源于无法验证googlechromelabs.github.io的SSL证书。本文将提供一种简单有效的解决方案,利用Selenium Manager自动管理Chro…

    2025年12月14日
    000
  • Python怎么使用enumerate获取索引和值_enumerate函数索引与值遍历指南

    使用enumerate函数可同时获取可迭代对象的索引和值,语法为enumerate(iterable, start=0),它比range(len())更简洁、安全且高效,适用于列表、字符串、元组、字典、集合及文件等可迭代对象,并可与zip、列表推导式等结合实现复杂需求,是Python中处理索引遍历的…

    2025年12月14日
    000
  • 解决Selenium Python启动Chrome浏览器SSL证书验证失败问题

    本文旨在帮助解决在使用Selenium和Python启动Chrome浏览器时遇到的SSL证书验证失败问题。通过分析错误堆栈信息,我们发现问题源于webdriver_manager尝试下载ChromeDriver版本信息时无法验证SSL证书。本文将提供一种简便的解决方案,利用Selenium Mana…

    2025年12月14日
    000
  • 使用Numexpr加速NumPy数组乘法:充分利用多核CPU

    本文将介绍如何利用Numexpr库加速NumPy数组的元素级乘法运算,从而充分利用多核CPU的计算能力。NumPy默认的np.multiply函数在处理大型数组时可能无法有效利用多核资源,导致性能瓶颈。通过使用Numexpr,我们可以显著提高计算速度,尤其是在处理大规模数据时。 Numexpr简介 …

    2025年12月14日
    000
  • Python类属性陷阱:可变对象默认值导致实例间共享问题解析与防范

    本文深入探讨了Python中将可变对象(如列表、字典)作为类属性默认值时,可能导致所有实例共享同一对象的问题。这种共享行为会引发数据意外累积和难以追踪的错误,尤其在多实例或测试场景中表现为不一致的行为。核心解决方案是在类的__init__方法中初始化这些可变属性,以确保每个实例都拥有独立且私有的数据…

    2025年12月14日
    000
  • 避免Python类定义中可变默认值陷阱:深入理解实例与类变量行为

    在Python编程中,一个常见的陷阱是直接在类定义中为可变对象(如列表、字典或集合)赋默认值。这会导致该对象成为所有实例共享的类变量,而非每个实例独有的实例变量。这种行为在多实例场景,特别是单元测试或集成测试中,可能引发数据意外累积和不一致性,导致程序行为与预期不符。本文将深入探讨这一问题,并通过示…

    2025年12月14日
    000
  • Python中可变类属性的风险与正确初始化方法

    本文探讨了Python中因类级别初始化可变数据结构(如列表)而导致的实例间数据共享问题。当此类属性在类定义时被赋值为可变对象时,所有实例将共享同一个对象,导致数据意外累积。解决方案是在类的 __init__ 方法中初始化这些可变属性,确保每个实例拥有独立的副本,从而避免在多实例场景(如测试)中出现数…

    2025年12月14日
    000
  • Pandas DataFrame宽表重构:使用 melt 转换扁平化嵌套数据

    本教程将指导如何在Pandas中处理列数过多的宽表,特别是那些由扁平化嵌套JSON生成的数据。我们将利用 melt 函数将宽表转换为更易于管理的长格式,并通过后续的数据清洗和重塑操作,实现将单个实体(如员工)的详细信息从多列展开为多行,从而优化数据结构,提高分析效率。 1. 引言:处理超宽DataF…

    2025年12月14日
    000
  • 理解 train_test_split 的返回值与 DataFrame 处理

    train_test_split 函数是 scikit-learn 中用于将数据集划分为训练集和测试集的重要工具。理解其返回值类型至关重要,因为它直接影响后续模型的训练和评估。该函数接受任意数量的索引对象作为输入,并返回一个包含 2 倍于输入数量的列表,分别对应训练集和测试集。此外,需要注意的是,当…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信