Python数据划分策略:在指定子集大小下实现均值均衡

python数据划分策略:在指定子集大小下实现均值均衡

本文探讨如何在给定超集和预设子集大小的情况下,将超集元素无重复地划分到多个子集中,以使每个子集的均值尽可能接近超集的均值。文章将介绍如何将此问题建模为集合划分问题,并提供基于线性规划(使用PuLP库)的精确求解方案,同时探讨启发式算法如Karmarkar-Karp的适用性及性能考量,旨在为高效、公平的数据子集划分提供专业指导。

在数据分析和机器学习领域,我们经常需要将一个大型数据集(超集)划分为多个小型数据集(子集),以便进行交叉验证、并行处理或分组实验。一个常见的需求是确保这些子集在统计特性上与原始超集尽可能一致,特别是它们的均值。本文将深入探讨如何在满足子集大小预设要求的同时,实现子集均值与超集均值的最大程度接近。

问题定义与数学建模

假设我们有一个包含 M 个元素的超集 S,其中的元素是实数(通常是正浮点数)。我们的目标是将 S 无重复地划分为 N 个子集 S_0, S_1, …, S_{N-1},每个子集 S_i 包含 x_i 个元素,且 sum(x_0, …, x_{N-1}) == M。核心约束是使每个子集 S_i 的均值 mean(S_i) 尽可能接近超集的均值 mean(S)。

为了量化“接近程度”,我们可以定义一个误差函数。一个直观且“公平”的方法是最小化所有子集均值与超集均值之间绝对差值的总和。由于子集大小 x_i 是固定的,最小化均值差的绝对值之和等价于最小化子集元素和与目标和的绝对差值之和。具体来说,如果超集均值为 μ_S,则子集 S_i 的目标和为 x_i * μ_S。

这个优化问题可以归类为集合划分问题(Set Partitioning Problem)的一个变种,通常通过整数线性规划(ILP)来解决。

立即学习“Python免费学习笔记(深入)”;

解决方案一:基于线性规划的精确求解 (使用 PuLP)

线性规划(Linear Programming, LP)是一种强大的优化工具,可以用来找到满足一系列线性约束的线性目标函数的最佳值。对于我们的问题,我们可以将其建模为一个整数线性规划问题。

核心思路

决策变量: 为超集中的每个元素 j 和每个子集 i 定义一个二进制决策变量 v_{ij}。如果元素 j 被分配到子集 i,则 v_{ij} = 1;否则 v_{ij} = 0。目标函数: 最小化所有子集均值与超集均值绝对差值的总和。为了在线性规划中处理绝对值,我们引入辅助变量 abs_err_i,并通过两个不等式约束来表示 abs_err_i >= err_i 和 abs_err_i >= -err_i。约束条件:子集大小约束: 每个子集 S_i 必须包含预设的 x_i 个元素。即 sum(v_{ij} for all j) = x_i。元素唯一性约束: 超集中的每个元素 j 只能被分配到一个且仅一个子集。即 sum(v_{ij} for all i) = 1。

PuLP 实现示例

PuLP 是一个 Python 库,用于建模和解决线性规划问题。以下代码展示了如何使用 PuLP 解决上述问题。

from statistics import meanimport pulpdef solve_subset_partitioning(superset_data, set_sizes):    """    使用PuLP解决子集划分问题,使各子集均值尽可能接近超集均值。    Args:        superset_data (list): 包含所有元素的超集列表。        set_sizes (list): 包含每个子集所需元素数量的列表。    Returns:        tuple: (list of lists) 划分后的子集, (float) 超集均值    """    # 计算超集均值和总和    superset_mean = mean(superset_data)    target_total_sum = sum(superset_data) # 实际上我们关心的是均值,但PuLP更方便处理总和    N = len(set_sizes)    if sum(set_sizes) != len(superset_data):        raise ValueError("所有子集大小之和必须等于超集元素总数。")    # 初始化PuLP问题    set_partitioning_model = pulp.LpProblem("Set_Partitioning_Model", pulp.LpMinimize)    # 决策变量:covering[s][i] = 1 如果超集中的第i个元素被分配给子集s    covering = {}    for s_idx in range(N):        vals = []        for i, v in enumerate(superset_data):            vals.append(                pulp.LpVariable(                    f"covering_set_{s_idx}_value_idx_{i:>02}_val_{v}",                    lowBound=0,                    upBound=1,                    cat=pulp.LpInteger, # 0或1的整数变量                )            )        covering[s_idx] = vals    # 辅助变量:用于处理绝对误差    abs_sum_errs = []    for s_idx in range(N):        set_sum_err_abs = pulp.LpVariable(f"set_{s_idx}_sum_error_abs", lowBound=0)        abs_sum_errs.append(set_sum_err_abs)    # 目标函数:最小化所有子集与超集目标和的绝对误差之和    # 注意:这里我们最小化的是子集总和与超集总和的误差,因为超集总和是固定的。    # 实际上,更直接的应该是最小化子集和与 (子集大小 * 超集均值) 的误差。    # 为了简化,我们可以最小化子集和与一个“理想”总和的误差。    # 或者,如原问题所述,最小化子集总和与 target_sum 的误差,这在某些情况下可能不够精确反映均值目标。    # 让我们调整为最小化子集总和与 (子集大小 * 超集均值) 的误差。    set_partitioning_model += pulp.lpSum(abs_sum_errs), "Total_Absolute_Error"    for s_idx, st_vars in covering.items():        # 计算当前子集s的元素总和        current_set_sum = pulp.lpSum([p * superset_data[i] for i, p in enumerate(st_vars)])        # 计算子集s的目标总和(基于超集均值和子集大小)        target_set_sum = set_sizes[s_idx] * superset_mean        # 计算子集s的总和误差        set_sum_err = pulp.LpVariable(f"set_{s_idx}_sum_error")        set_partitioning_model += set_sum_err == current_set_sum - target_set_sum,                                   f"Set_{s_idx}_Sum_Error_Definition"        # 定义绝对误差的约束        set_partitioning_model += abs_sum_errs[s_idx] >= set_sum_err,                                   f"Set_{s_idx}_Abs_Error_Upper_Bound_Pos"        set_partitioning_model += abs_sum_errs[s_idx] >= -set_sum_err,                                   f"Set_{s_idx}_Abs_Error_Upper_Bound_Neg"    # 约束:每个子集的大小是预设的    for n, st_vars in zip(set_sizes, covering.values()):        set_partitioning_model += pulp.lpSum(st_vars) == n,                                   f"Set_Size_Constraint_{set_sizes.index(n)}"    # 约束:超集中的每个元素只能被使用一次    for i, _ in enumerate(superset_data):        set_partitioning_model += (            pulp.lpSum([covering[s_idx][i] for s_idx in range(N)]) == 1,            f"Element_{i}_Used_Once"        )    # 求解模型    set_partitioning_model.solve(pulp.PULP_CBC_CMD(msg=False)) # msg=False 减少输出    # 解析结果    result_subsets = [[] for _ in range(N)]    for s_idx in range(N):        for i, var in enumerate(covering[s_idx]):            if var.value() == 1:                result_subsets[s_idx].append(superset_data[i])    return result_subsets, superset_mean# 示例 1: 完美分配superset1 = [100]*5 + [101]*10 + [102]*5set_sizes1 = [2, 4, 14]result_subsets1, superset_mean1 = solve_subset_partitioning(superset1, set_sizes1)print("--- 示例 1 结果 ---")print(f"超集均值: {superset_mean1}")for i, subset in enumerate(result_subsets1):    print(f"子集 {i}: {subset}, 均值: {mean(subset)}")# 示例 2: 最佳拟合(无法完美分配)superset2 = [100]*5 + [103]*10 + [104]*5set_sizes2 = [2, 4, 14]result_subsets2, superset_mean2 = solve_subset_partitioning(superset2, set_sizes2)print("n--- 示例 2 结果 ---")print(f"超集均值: {superset_mean2}")for i, subset in enumerate(result_subsets2):    print(f"子集 {i}: {subset}, 均值: {mean(subset)}")

示例 1 运行结果:

--- 示例 1 结果 ---超集均值: 101子集 0: [100, 102], 均值: 101子集 1: [100, 100, 102, 102], 均值: 101子集 2: [100, 100, 100, 101, 101, 101, 101, 101, 101, 101, 101, 102, 102, 102], 均值: 101

示例 2 运行结果:

--- 示例 2 结果 ---超集均值: 102.5子集 0: [103, 103], 均值: 103子集 1: [100, 100, 104, 104], 均值: 102子集 2: [100, 100, 100, 103, 103, 103, 103, 103, 103, 103, 103, 104, 104, 104], 均值: 102.57142857142857

注意事项:

计算复杂度: 线性规划求解器在理论上是多项式时间复杂度的,但在实际应用中,对于大规模的整数线性规划问题(变量数量和约束数量都很大),求解时间可能会显著增加。当超集元素数量和子集数量都很大时,可能无法在1秒内得到结果。绝对值处理: 在线性规划中,目标函数或约束中不能直接包含绝对值。通过引入辅助变量和一对不等式约束,可以将 |x| 转换为线性形式:y >= x 和 y >= -x,其中 y 是要最小化的变量。PuLP求解器: PuLP 默认使用 CBC 求解器,这是一个开源的混合整数规划求解器。对于更复杂的商业求解器(如 Gurobi, CPLEX),可能需要额外的配置。

解决方案二:启发式算法 (Karmarkar-Karp)

当精确求解的计算成本过高时,启发式算法提供了一种快速获得近似解的方法。Karmarkar-Karp 算法(也称为最大差值法)是解决数集划分问题的一种著名启发式算法,其目标是将一组数字划分为两部分,使两部分的和尽可能接近。

算法特点与局限性

Karmarkar-Karp 算法通常用于将一个集合划分为指定数量的子集,使其各子集的尽可能相等。然而,它不直接支持预设子集大小的约束。这意味着,虽然它能尝试使子集的均值接近(通过使和接近),但它无法保证每个子集都包含特定数量的元素。

因此,Karmarkar-Karp 算法不完全符合我们原始问题中“创建 N 个包含 x0, …, xn 元素的子集”的要求,但可以作为一种快速探索均值均衡分配的思路,或者在子集大小约束不那么严格时使用。

numberpartitioning 库示例

numberpartitioning 是一个 Python 库,实现了 Karmarkar-Karp 算法。

from statistics import meanfrom numberpartitioning import karmarkar_karpsuperset = [100]*5 + [103]*10 + [104]*5# 注意:Karmarkar-Karp算法不接受预设的子集大小# 它会尝试将超集划分为指定数量的子集,使它们的和(或均值)尽可能接近。print("--- Karmarkar-Karp 算法示例 ---")print(f"超集均值: {mean(superset)}")# 将超集划分为 3 个部分for p in karmarkar_karp(superset, num_parts=3).partition:    print(f"子集: {p}, 均值: {mean(p)}")

运行结果:

--- Karmarkar-Karp 算法示例 ---超集均值: 102.5子集: [104, 104, 103, 103, 103, 100], 均值: 102.83333333333333子集: [100, 103, 104, 103, 103, 103, 100], 均值: 102.28571428571429子集: [100, 104, 104, 103, 103, 103, 100], 均值: 102.42857142857143

从结果可以看出,Karmarkar-Karp 算法确实生成了均值相对接近的子集,但这些子集的大小(分别为 6, 7, 7)与我们预设的 [2, 4, 14] 并不匹配。

性能考量与策略选择

根据问题的规模和对精确度的要求,可以采用不同的策略:

小规模问题(超集元素少,子集数量少):策略: 直接使用线性规划(如 PuLP 方案)。它能找到最优解,确保均值偏差最小。适用场景: 超集元素数量在几百以内,子集数量在几十以内。优势: 结果

以上就是Python数据划分策略:在指定子集大小下实现均值均衡的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1372749.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 12:35:18
下一篇 2025年12月14日 12:35:30

相关推荐

  • Python初学者指南:正确在命令行运行Python脚本与解决cd命令错误

    本文旨在指导Python初学者正确在Windows命令行环境中运行Python脚本,并解决在Python交互式解释器中误用系统命令(如cd)导致的SyntaxError。核心在于区分系统命令提示符(CMD/PowerShell)与Python交互式解释器,理解各自的功能,从而避免常见的操作错误,确保…

    好文分享 2025年12月14日
    000
  • 生成准确表达文章主题的标题 Python中计算阶乘末尾零的原理与高效方法

    本文深入探讨了在Python中计算给定数字阶乘末尾零的有效方法。文章首先指出直接计算阶乘并转换为字符串统计零的局限性,特别是对于大数阶乘可能导致的溢出问题。随后,详细阐述了基于数学原理(勒让德公式)的高效算法,并通过示例代码演示了其实现。最后,补充了针对任意数字字符串末尾零计数的通用方法,并强调了不…

    2025年12月14日
    000
  • 在pydrake场景YAML中优雅地引用本地SDF文件

    本文旨在解决pydrake项目中在场景YAML文件中引用本地SDF文件时,避免使用绝对路径和维护困难的问题。通过创建本地包并配置package.xml,开发者可以像引用标准包一样,使用package://语法简洁高效地管理和引用自定义SDF模型,从而提升项目可维护性和团队协作效率。 在pydrake…

    2025年12月14日
    000
  • Pydrake中本地SDF文件引用的最佳实践:构建本地包

    本文介绍了在pydrake场景YAML文件中优雅地引用本地SDF文件的方法。针对传统绝对路径难以维护和动态生成YAML的繁琐,教程提供了一种创建本地包的解决方案。通过在SDF文件目录中添加package.xml,开发者可以利用package:// URI便捷地管理和引用自定义模型,从而提高项目可维护…

    2025年12月14日
    000
  • Python中高效计算阶乘末尾零的方法详解

    Python中高效计算阶乘末尾零的方法详解。本文深入探讨了如何在Python中高效计算给定数字阶乘的末尾零数量。通过分析阶乘末尾零的数学原理,揭示了其与因子5数量的直接关系。文章首先指出直接计算阶乘和字符串遍历的低效与潜在问题,随后重点介绍了基于勒让德公式(Legendre’s Form…

    2025年12月14日
    000
  • pydrake场景YAML中引用本地SDF文件的优雅方案:构建本地包

    本文介绍在pydrake场景YAML文件中优雅地引用本地SDF文件的解决方案。针对传统方法中绝对路径难以维护、动态生成YAML文件不便的问题,我们提出通过创建本地包(local package)的方式。只需在SDF文件所在目录添加一个package.xml文件,即可使用package://协议简洁高…

    2025年12月14日
    000
  • 神经网络输出形状操作:多维输入数据的处理策略

    本文旨在解决Keras Dense层在处理多维输入时输出形状不符合预期的问题,特别是当模型需要生成二维向量输出(如DQN模型)时。我们将深入探讨Dense层的工作机制,解释为何会出现三维输出,并提供使用tf.keras.layers.Flatten进行模型架构调整的有效解决方案,确保模型输出符合下游…

    2025年12月14日
    000
  • 理解Keras Dense层多维输入与输出:DQN模型形状操控指南

    本教程深入探讨Keras Dense层处理多维输入时的行为,解释为何其输出可能呈现多维结构。针对深度Q网络(DQN)等需要特定一维输出形状的场景,文章提供了详细的解决方案,包括如何通过Flatten层调整网络架构,确保模型输出符合预期,避免因形状不匹配导致的错误。 Keras Dense层对多维输入…

    2025年12月14日
    000
  • PyInstaller与外部文件依赖管理:确保可执行文件正确访问数据

    本文旨在解决使用PyInstaller打包Python程序为可执行文件(.exe)后,程序无法找到外部数据文件(如文本文件、图片等)的问题。核心解决方案在于理解PyInstaller的工作原理以及程序默认的文件查找路径,并确保可执行文件与所有非脚本依赖文件部署在同一目录下,或通过相对路径正确引用。 …

    2025年12月14日
    000
  • 初学者如何配置 Python 开发 IDE(VS Code、PyCharm)

    初学者配置Python开发环境首选VS Code或PyCharm。先从python.org安装Python并添加到PATH,验证安装后,在VS Code中安装官方Python扩展,选择解释器并运行.py文件,可选装pylint和black工具;PyCharm用户则下载Community版,设置项目解…

    2025年12月14日
    000
  • Python:从生成器函数返回列表

    本文旨在解决如何将一个计算加法的函数转换为生成器,使其能够分批次返回结果列表。我们将探讨如何正确实现生成器函数,并提供一个可配置批次大小的示例,确保所有计算结果都能被正确处理并返回。 使用生成器函数分批次返回结果 在Python中,生成器是一种特殊的函数,它使用 yield 关键字来逐步产生值,而不…

    2025年12月14日
    000
  • Pandas DataFrame 高级合并技巧:处理共有与独有键的策略

    本教程深入探讨如何在Pandas中高效合并两个DataFrame,以实现对共有键的数据进行更新和扩展,同时将独有键的数据作为新行添加。我们将详细介绍使用 DataFrame.join(how=’outer’) 和 DataFrame.combine_first() 两种方法,…

    2025年12月14日
    000
  • Python模块导入策略:直接引用类与避免命名空间前缀

    本教程深入探讨Python中导入模块的不同策略,重点介绍如何避免在引用类名时添加模块前缀。文章将详细阐述标准导入、直接导入特定名称(from module import name)以及通配符导入(from module import *)的机制、优缺点及适用场景,并提供实践建议,帮助开发者编写更清晰…

    2025年12月14日
    000
  • Python str()函数整数转换行为解析:避免字符串包含判断中的隐式陷阱

    本文深入探讨了Python中str()函数对整数进行转换时的行为特性,特别是对于带有前导零的整数(如000)。我们揭示了str(000)为何会返回字符串”0″而非”000″,并分析了这一特性在字符串包含判断中可能导致的意外结果。通过实例代码和最佳实践,…

    2025年12月14日
    000
  • Pandas DataFrame智能合并:兼顾共同键更新与非共同键新增

    本教程深入探讨如何使用Pandas高效合并两个DataFrame,实现共同键数据的列更新与非共同键数据的新增行。我们将详细解析DataFrame.join和DataFrame.combine_first两种方法,通过设置公共列为索引并结合适当的合并策略,演示如何实现这种复杂的智能合并,确保数据完整性…

    2025年12月14日
    000
  • Pandas DataFrames 高级合并技巧:处理共同键更新与新增行

    本教程深入探讨Pandas DataFrames的复杂合并策略,旨在解决如何优雅地合并两个DataFrame,实现共同键数据行的更新与扩展,同时保留并添加不共享键的独立行。我们将重点介绍并演示 DataFrame.join(how=’outer’) 和 DataFrame.c…

    2025年12月14日
    000
  • Python 缓存函数结果减少重复计算

    使用 lru_cache 装饰器可缓存函数结果,避免重复计算,提升性能;通过 maxsize 控制缓存大小,适用于纯函数如递归、数学运算;也可用字典或类封装实现自定义缓存,便于灵活管理。 在 Python 中,缓存函数结果是一种有效减少重复计算的手段,特别适用于那些输入不变时输出也不变、但计算成本较…

    2025年12月14日
    000
  • 解决 pip 安装本地包时构建失败,提示找不到已安装的依赖包

    在使用 pip 安装本地包时,如果构建过程中出现 ModuleNotFoundError,提示找不到已安装的依赖包(例如 numpy),这通常是因为 pip 使用了隔离的构建环境,导致无法识别系统已安装的包。本文将介绍如何通过修改 setup.py 文件来解决这个问题,确保构建过程能够正确找到所需的…

    2025年12月14日
    000
  • PyInstaller打包可执行文件后外部数据文件处理指南:确保程序正确访问资源

    当使用PyInstaller将Python程序打包成可执行文件(.exe)后,若程序依赖于非脚本文件(如文本文件、图片等),这些文件必须与生成的可执行文件位于同一目录下,程序才能正确找到并访问它们。这是因为文件操作函数默认会在可执行文件所在的当前工作目录中查找资源。 理解PyInstaller可执行…

    2025年12月14日
    000
  • 计算阶乘尾随零的Python方法详解

    本文深入探讨了在Python中计算给定数字阶乘尾随零的多种方法。我们将分析常见的编程误区,介绍基于数学原理的高效算法,并演示如何利用字符串操作实现尾随零的计数。通过对比不同方法的优缺点,帮助读者选择最适合其需求的解决方案。 引言:阶乘尾随零的计算挑战 计算一个正整数n的阶乘(n!)结果中末尾有多少个…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信