
本文旨在探讨如何将一个超集中的元素无放回地分配到N个预设大小的子集中,以使每个子集的均值尽可能接近超集的总均值。我们将介绍将此问题建模为集合划分问题,并利用混合整数线性规划(MILP)库PuLP来求解精确解。同时,文章还将讨论启发式算法Karmarkar-Karp及其局限性,并提供不同规模问题下的性能考量与优化策略,帮助读者在实际应用中选择最适合的分配方法。
1. 问题定义与目标
给定一个包含m个元素的超集(元素为实数,通常是正浮点数),我们需要将其无放回地划分为n个子集。每个子集 $s_i$ 都有一个预设的元素数量 $x_i$,且所有子集元素数量之和等于超集总元素数量 $sum x_i = m$。我们的目标是使每个子集 $s_i$ 的均值 $text{mean}(si)$ 尽可能接近超集 $s{total}$ 的均值 $text{mean}(s_{total})$。
形式上,我们希望最小化一个误差函数,例如所有子集均值与超集均值之间绝对差的总和:$$ text{Minimize} sum_{i=1}^{N} |text{mean}(Si) – text{mean}(S{total})| $$由于每个子集的元素数量 $x_i$ 是固定的,最小化均值误差等价于最小化子集总和与目标总和的绝对差。目标总和为 $xi times text{mean}(S{total})$。
示例1:完美分配
假设超集 $S_{total} = {100 times 5, 101 times 10, 102 times 5}$,总均值为 101。需要创建三个子集,分别包含 2、4、14 个元素。一个完美分配的例子是:
$A = {100, 102}$,均值 = 101$B = {100, 102, 100, 102}$,均值 = 101$C = {100 times 2, 101 times 10, 102 times 2}$,均值 = 101
每个子集的均值都精确等于超集均值。
示例2:最佳近似分配
假设超集 $S_{total} = {100 times 5, 103 times 10, 104 times 5}$,总均值为 102.5。需要创建三个子集,分别包含 2、4、14 个元素。在这种情况下,可能无法实现完美分配。一个较优的近似分配可能是:
$A = {100, 104}$,均值 = 102$B = {100, 103, 103, 104}$,均值 = 102.5$C = {100 times 2, 103 times 7, 104 times 3}$,均值 ≈ 102.5714
2. 数学模型与问题归类:集合划分问题
这类问题在数学和计算机科学中属于集合划分问题 (Set Partitioning Problem) 的范畴。它是一个经典的组合优化问题,通常是NP-hard问题。其核心在于将一个集合的元素划分到多个子集中,同时满足特定的约束和优化目标。
对于我们的问题,每个超集元素必须且只能被分配到一个子集,且每个子集的大小是预定的。因此,我们可以将其建模为混合整数线性规划 (Mixed Integer Linear Programming, MILP) 问题,以寻求精确的最优解。
3. 基于线性规划的精确解法
我们可以利用Python中的PuLP库来构建和求解MILP模型。PuLP是一个用于描述优化问题的库,可以与各种线性规划求解器(如CBC、GLPK、Gurobi等)集成。
核心思想:
决策变量: 定义一组二进制变量 $x_{ij}$,表示超集中的第 $j$ 个元素是否被分配给第 $i$ 个子集。目标函数: 最小化所有子集与超集均值(或总和)的绝对误差之和。约束条件:每个超集元素必须分配到且仅分配到一个子集。每个子集的元素数量必须等于其预设大小。绝对误差的线性化转换。
3.1 使用PuLP实现精确解
以下代码演示了如何使用PuLP解决上述问题:
from statistics import meanimport pulpdef solve_set_partitioning(superset_data, set_sizes_data): """ 使用PuLP解决集合划分问题,使子集均值接近超集均值。 Args: superset_data (list): 超集中的元素列表。 set_sizes_data (list): 每个子集所需的元素数量列表。 Returns: tuple: (list of lists, list of floats) 分配后的子集列表及其均值。 """ superset = superset_data set_sizes = set_sizes_data N = len(set_sizes) # 验证输入 if sum(set_sizes) != len(superset): raise ValueError("所有子集大小之和必须等于超集元素总数。") superset_mean = mean(superset) # 创建问题实例 set_partitioning_model = pulp.LpProblem("Set_Partitioning_Model", pulp.LpMinimize) # 1. 定义决策变量 # covering[s][i] 是一个二进制变量,如果超集中的第i个元素被分配给子集s,则为1,否则为0。 covering = {} for s in range(N): vals = [] for i, v in enumerate(superset): vals.append( pulp.LpVariable( f"assign_s{s}_idx{i:02}_val{v}", lowBound=0, upBound=1, cat=pulp.LpInteger, ) ) covering[s] = vals # 定义表示每个子集总和误差的变量 abs_sum_errs = [] for s_i in range(N): set_sum_err_abs = pulp.LpVariable(f"set_{s_i}_sum_error_abs", lowBound=0) abs_sum_errs.append(set_sum_err_abs) # 2. 定义目标函数 # 最小化所有子集总和与目标总和的绝对误差之和。 # 目标总和 = 子集大小 * 超集均值 set_partitioning_model += pulp.lpSum(abs_sum_errs), "Minimize_Absolute_Sum_Errors" # 3. 添加约束 for s_i, st_vars in covering.items(): # 计算当前子集s_i的实际元素值之和 current_set_sum = pulp.lpSum([p * superset[idx] for idx, p in enumerate(st_vars)]) # 计算子集s_i的目标总和 target_set_sum = set_sizes[s_i] * superset_mean # 定义子集s_i的总和误差 (实际总和 - 目标总和) set_sum_err = pulp.LpVariable(f"set_{s_i}_sum_error") set_partitioning_model += set_sum_err == (current_set_sum - target_set_sum), f"Sum_Error_Definition_Set_{s_i}" # 将绝对误差转换为线性约束: |x| <= y 等价于 x <= y 和 -x = set_sum_err, f"Abs_Error_Constraint_Pos_Set_{s_i}" set_partitioning_model += abs_sum_errs[s_i] >= -set_sum_err, f"Abs_Error_Constraint_Neg_Set_{s_i}" # 约束: 每个子集的大小必须符合预设 for n, st_vars in zip(set_sizes, covering.values()): set_partitioning_model += pulp.lpSum(st_vars) == n, f"Set_Size_Constraint_{n}" # 约束: 超集中的每个元素只能被使用一次 # 遍历超集中的每个元素(通过其索引),确保它在所有子集变量中总和为1 for idx_in_superset in range(len(superset)): # 获取所有子集对应此元素的变量 element_assignment_vars = [covering[s][idx_in_superset] for s in range(N)] set_partitioning_model += ( pulp.lpSum(element_assignment_vars) == 1, f"Element_{idx_in_superset}_Used_Once", ) # 4. 求解模型 set_partitioning_model.solve() # 5. 解析结果 if set_partitioning_model.status != pulp.LpStatusOptimal: print(f"求解状态: {pulp.LpStatus[set_partitioning_model.status]}") return [], [] allocated_subsets = [] subset_means = [] for k, v in covering.items(): current_subset = [] for idx, var in enumerate(v): if var.value() == 1: current_subset.append(superset[idx]) allocated_subsets.append(current_subset) if current_subset: subset_means.append(mean(current_subset)) else: subset_means.append(0) # 或根据实际情况处理空子集 return allocated_subsets, subset_means, superset_mean# 示例1:完美分配print("--- 示例1:完美分配 ---")superset_ex1 = [100]*5 + [101]*10 + [102]*5set_sizes_ex1 = [2, 4, 14]subsets_ex1, means_ex1, total_mean_ex1 = solve_set_partitioning(superset_ex1, set_sizes_ex1)print(f"超集均值: {total_mean_ex1}")for i, subset in enumerate(subsets_ex1): print(f"子集 {i}: {subset}, 均值: {means_ex1[i]}")# 示例2:最佳近似分配print("n--- 示例2:最佳近似分配 ---")superset_ex2 = [100]*5 + [103]*10 + [104]*5set_sizes_ex2 = [2, 4, 14]subsets_ex2, means_ex2, total_mean_ex2 = solve_set_partitioning(superset_ex2, set_sizes_ex2)print(f"超集均值: {total_mean_ex2}")for i, subset in enumerate(subsets_ex2): print(f"子集 {i}: {subset}, 均值: {means_ex2[i]}")
示例1输出:
--- 示例1:完美分配 ---超集均值: 101.0子集 0: [101, 101], 均值: 101.0子集 1: [100, 100, 102, 102], 均值: 101.0子集 2: [100, 100, 100, 101, 101, 101, 101, 101, 101, 101, 101, 102, 102, 102], 均值: 101.0
示例2输出:
--- 示例2:最佳近似分配 ---超集均值: 102.5子集 0: [103, 103], 均值: 103.0子集 1: [100, 100, 104, 104], 均值: 102.0子集 2: [100, 100, 100, 103, 103, 103, 103, 103, 103, 103, 103, 104, 104, 104], 均值: 102.57142857142857
可以看到,PuLP找到了一个最优解,尽管在示例2中无法达到完美均值,但它最小化了总体的均值偏差。
4. 启发式算法:Karmarkar-Karp
Karmarkar-Karp 算法(也称为最大差值法,Largest Differencing Method)是一种用于解决数集划分问题的启发式算法。它旨在将一个数集划分为指定数量的子集,使这些子集的总和尽可能接近,通常用于最小化最大子集和与最小子集和之间的差异,或者使所有子集和尽可能接近平均值。
局限性:Karmarkar-Karp算法通常不直接支持固定子集大小的约束。这意味着它会尝试平衡子集总和,但不会保证每个子集包含预设数量的元素。因此,它不能直接解决我们提出的问题。然而,在某些不需要严格固定子集大小,只追求总和平衡的场景下,它可能作为一个快速的近似解法。
4.1 使用 numberpartitioning 库
Python的 numberpartitioning 库提供了一个 Karmarkar-Karp 算法的实现。
from statistics import meanfrom numberpartitioning import karmarkar_karp# 示例2数据superset_ex2 = [100]*5 + [103]*10 + [104]*5print("--- Karmarkar-Karp 算法示例 ---")print("超集均值:", mean(superset_ex2))# 将超集划分为3个子集# 注意:karmarkar_karp不保证子集大小,只平衡子集和partitions = karmarkar_karp(superset_ex2, num_parts=3).partitionfor i, p in enumerate(partitions): print(f"子集 {i}: {p}, 均值: {mean(p)}, 大小: {len(p)}")
Karmarkar-Karp 示例输出:
--- Karmarkar-Karp 算法示例 ---超集均值: 102.5子集 0: [104, 104, 103, 103, 103, 100], 均值: 102.83333333333333, 大小: 6子集 1: [100, 103, 104, 103, 103, 103, 100], 均值: 102.28571428571429, 大小: 7子集 2: [100, 104, 104, 103, 103, 103, 100], 均值: 102.42857142857143, 大小: 7
从输出可以看出,Karmarkar-Karp算法生成的子集大小(6, 7, 7)与我们预设的子集大小(2, 4, 14)不符,因此它不能直接
以上就是基于优化理论的子集均值均衡分配策略的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1372673.html
微信扫一扫
支付宝扫一扫