Python如何实现基于对比学习的异常表示学习?

对比学习在异常表示学习中的核心在于通过无监督或自监督方式,使模型将正常数据紧密聚集,异常数据远离该流形。1. 数据准备与增强:通过正常数据生成正样本对(同一数据不同增强)与负样本对(其他样本)。2. 模型架构选择:使用编码器(如resnet、transformer)提取特征,配合投影头映射到对比空间。3. 对比损失函数设计:采用infonce loss最大化正样本相似度,最小化负样本相似度。4. 训练策略:使用adam优化器、余弦退火调度器,大批次训练,或结合moco解决负样本不足。5. 异常检测:利用编码器提取表示,结合距离、密度估计或one-class模型计算异常分数。对比学习的优势在于无需异常标签,但挑战在于数据增强策略与负样本选择对性能影响显著。

Python如何实现基于对比学习的异常表示学习?

基于对比学习实现异常表示学习,核心在于通过无监督或自监督的方式,让模型在学习数据内在结构时,能将正常数据点紧密地聚拢在一起,形成一个紧致的“正常流形”,而异常点则自然地远离这个流形。这本质上是利用了数据本身的相似性信息,来训练一个能区分正常与异常的强大特征提取器。在Python中,这通常涉及深度学习框架、精心设计的数据增强策略以及特定的对比损失函数。

Python如何实现基于对比学习的异常表示学习?

解决方案

在Python中实现基于对比学习的异常表示学习,通常遵循以下步骤:

数据准备与增强

立即学习“Python免费学习笔记(深入)”;

Python如何实现基于对比学习的异常表示学习?核心理念:假设我们只有大量的正常数据(或至少是正常数据占绝大多数的混合数据)。对比学习的关键在于生成“正样本对”和“负样本对”。正样本对:通常通过对同一个正常数据样本应用两种不同的随机数据增强变换(例如,对于图像是随机裁剪、颜色抖动;对于时间序列是随机抖动、缩放;对于文本是随机删除、替换词)来生成。这确保了即使经过变换,它们依然代表了“同一件事物”的不同视角。负样本对:可以是同一批次中其他随机选择的样本,或者从一个动态更新的内存队列(如MoCo)中获取。Python实现:使用torchvision.transforms(图像),tsaug(时间序列),或自定义函数进行数据增强。DataLoader用于批处理。

模型架构选择

编码器(Encoder):一个深度神经网络,其任务是将原始数据映射到一个低维的、信息丰富的表示(嵌入向量)。常见选择图像:ResNet、Vision Transformer (ViT)。时间序列:CNN、RNN(LSTM/GRU)、Transformer。表格数据:MLP。投影头(Projection Head):在编码器之后,通常会添加一个小的MLP层(如2-3层),将编码器输出的表示进一步映射到一个用于计算对比损失的空间。在推理时,我们通常使用编码器输出的表示(不包括投影头)来进行异常检测。Python实现:使用torch.nn构建模型,或利用timm等库加载预训练模型(并根据需要修改)。

对比损失函数设计

Python如何实现基于对比学习的异常表示学习?核心:InfoNCE Loss(也称为NT-Xent Loss,Normalized Temperature-scaled Cross Entropy Loss)是目前最流行的选择。原理:它旨在最大化正样本对之间的相似度,同时最小化正样本与负样本之间的相似度。数学形式:对于一个批次中的每个锚点 x_i,其正样本 x_j,以及 2N-2 个负样本,损失函数会计算 x_ix_j 相似度相对于 x_i 与所有其他样本相似度的对数比。温度参数(Temperature Parameter, tau:一个关键的超参数,它控制了相似度分布的平滑程度。较小的 tau 会使模型更关注区分最相似的负样本。Python实现:手动实现InfoNCE损失,或者使用Pytorch Metric Learning等库中提供的现成实现。

训练策略

优化器:Adam、SGD等。学习率调度器:余弦退火(Cosine Annealing)等。批次大小:对比学习通常需要较大的批次大小来提供足够多的负样本。如果硬件受限,可以考虑MoCo(Momentum Contrast)等策略,它使用一个动态更新的队列来存储负样本。训练循环:标准深度学习训练循环,迭代数据批次,计算损失,反向传播,更新模型参数。Python实现:标准的PyTorch或TensorFlow训练脚本。

异常分数计算与检测

推理阶段:训练完成后,我们只使用编码器(不包括投影头)来获取数据点的表示。异常分数距离到质心:计算所有正常训练样本表示的质心,然后计算新样本表示到该质心的欧氏距离或余弦距离。距离越大,异常分数越高。K近邻距离:计算新样本表示到其K个最近的正常训练样本表示的平均距离。密度估计:在嵌入空间中对正常样本进行密度估计(如使用高斯混合模型GMM或核密度估计KDE),异常点将位于低密度区域。One-Class SVM/Isolation Forest:在学到的嵌入空间上训练一个One-Class SVM或Isolation Forest模型。阈值:根据异常分数的分布(通常是正态分布或偏态分布),设置一个阈值来区分正常和异常。Python实现scikit-learn库中的NearestNeighborsOneClassSVMIsolationForest等。

import torchimport torch.nn as nnimport torch.optim as optimfrom torchvision import transformsfrom torch.utils.data import DataLoader, Datasetimport numpy as npfrom sklearn.metrics import roc_auc_scorefrom sklearn.ensemble import IsolationForest# 假设我们处理的是图像数据,所以用torchvision# 1. 模拟数据(实际应用中会加载真实数据集)class SimpleImageDataset(Dataset):    def __init__(self, num_samples=1000, img_size=32, is_anomaly=False):        self.num_samples = num_samples        self.img_size = img_size        # 模拟正常数据:中心是0.5的噪声        self.data = torch.randn(num_samples, 3, img_size, img_size) * 0.1 + 0.5        if is_anomaly:            # 模拟异常数据:偏离中心,例如非常亮或非常暗            self.data = torch.randn(num_samples, 3, img_size, img_size) * 0.2 + (0 if np.random.rand() > 0.5 else 1.0)        # 简单的数据增强,用于对比学习        self.transform = transforms.Compose([            transforms.RandomResizedCrop(img_size, scale=(0.8, 1.0)),            transforms.RandomHorizontalFlip(),            transforms.ColorJitter(0.2, 0.2, 0.2, 0.1),            transforms.ToTensor(), # 已经转换为tensor了,这里只是为了兼容Compose        ])    def __len__(self):        return self.num_samples    def __getitem__(self, idx):        # 对于对比学习,每个样本需要生成两个增强视图        img = self.data[idx]        return self.transform(img), self.transform(img)# 2. 模型架构:简单的CNN编码器 + 投影头class Encoder(nn.Module):    def __init__(self, in_channels=3, hidden_dim=128):        super(Encoder, self).__init__()        self.features = nn.Sequential(            nn.Conv2d(in_channels, 32, kernel_size=3, padding=1),            nn.ReLU(),            nn.MaxPool2d(2),            nn.Conv2d(32, 64, kernel_size=3, padding=1),            nn.ReLU(),            nn.MaxPool2d(2),            nn.Conv2d(64, hidden_dim, kernel_size=3, padding=1),            nn.ReLU(),            nn.AdaptiveAvgPool2d((1, 1)) # 将特征图池化到1x1        )        self.flatten = nn.Flatten()    def forward(self, x):        x = self.features(x)        x = self.flatten(x)        return xclass ProjectionHead(nn.Module):    def __init__(self, input_dim, output_dim=128):        super(ProjectionHead, self).__init__()        self.net = nn.Sequential(            nn.Linear(input_dim, input_dim),            nn.ReLU(),            nn.Linear(input_dim, output_dim)        )    def forward(self, x):        return self.net(x)# 3. InfoNCE Loss实现class InfoNCELoss(nn.Module):    def __init__(self, temperature=0.07):        super(InfoNCELoss, self).__init__()        self.temperature = temperature        self.criterion = nn.CrossEntropyLoss()    def forward(self, features):        # features: [2*batch_size, feature_dim]        # 前半部分是view1,后半部分是view2        batch_size = features.shape[0] // 2        # 归一化特征        features = nn.functional.normalize(features, dim=1)        # 计算余弦相似度矩阵        # similarities: [2*batch_size, 2*batch_size]        similarities = torch.matmul(features, features.T) / self.temperature        # 构造标签:对角线是正样本对        # 比如 batch_size=2:        # view1_0, view1_1, view2_0, view2_1        # target for view1_0 is view2_0 (index 2)        # target for view2_0 is view1_0 (index 0)        # target for view1_1 is view2_1 (index 3)        # target for view2_1 is view1_1 (index 1)        labels = torch.arange(2 * batch_size).roll(shifts=batch_size, dims=0)        # 移除自相似性 (将对角线设为负无穷,避免自己和自己比较)        # 实际操作中,InfoNCE的labels通常是0, 1, ..., N-1,对应于正样本在相似度矩阵中的位置        # 这里为了简化,我们直接用交叉熵,把所有非正样本都看作负样本        # 构造正样本对的索引        # (0, batch_size), (1, batch_size+1), ..., (batch_size-1, 2*batch_size-1)        # 以及反向的        # (batch_size, 0), (batch_size+1, 1), ..., (2*batch_size-1, batch_size-1)        # 确保正样本对的索引是正确的        # 假设 f_i 是 view1 的第 i 个样本,f_j 是 view2 的第 j 个样本        # 正样本对是 (f_i, f_i')        # 我们的 features 结构是 [v1_0, v1_1, ..., v1_N-1, v2_0, v2_1, ..., v2_N-1]        # 那么 (v1_i, v2_i) 是正样本对        # 它们的索引是 (i, i+batch_size)        # 创建一个掩码,将正样本对的相似度设为0,避免被softmax影响        mask = torch.eye(2 * batch_size, dtype=torch.bool).to(features.device)        similarities = similarities.masked_fill(mask, float('-inf'))        # 计算交叉熵损失        # 目标是让每个样本的增强视图与自身对应的增强视图相似度最高        # 假设 batch_size=2        # features = [v1_0, v1_1, v2_0, v2_1]        # similarities[0] (v1_0与其他) -> 期望 v2_0 (idx 2) 相似度最高        # similarities[1] (v1_1与其他) -> 期望 v2_1 (idx 3) 相似度最高        # similarities[2] (v2_0与其他) -> 期望 v1_0 (idx 0) 相似度最高        # similarities[3] (v2_1与其他) -> 期望 v1_1 (idx 1) 相似度最高        # 目标索引        labels = torch.cat([torch.arange(batch_size, 2 * batch_size),                             torch.arange(0, batch_size)], dim=0).to(features.device)        loss = self.criterion(similarities, labels)        return loss# 4. 训练过程def train_contrastive_model(encoder, projection_head, dataloader, epochs=50, lr=1e-3):    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")    encoder.to(device)    projection_head.to(device)    optimizer = optim.Adam(list(encoder.parameters()) + list(projection_head.parameters()), lr=lr)    criterion = InfoNCELoss().to(device)    print("开始训练对比学习模型...")    for epoch in range(epochs):        total_loss = 0        for (img1, img2) in dataloader:            img1, img2 = img1.to(device), img2.to(device)            optimizer.zero_grad()            # 获取特征            feat1 = encoder(img1)            feat2 = encoder(img2)            # 通过投影头            proj1 = projection_head(feat1)            proj2 = projection_head(feat2)            # 合并特征用于计算损失            features = torch.cat([proj1, proj2], dim=0)            loss = criterion(features)            loss.backward()            optimizer.step()            total_loss += loss.item()        print(f"Epoch {epoch+1}/{epochs}, Loss: {total_loss / len(dataloader):.4f}")    print("训练完成。")# 5. 异常分数计算与评估def evaluate_anomaly_detection(encoder, normal_dataloader, anomaly_dataloader):    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")    encoder.eval() # 评估模式    normal_embeddings = []    with torch.no_grad():        for (img1, _) in normal_dataloader: # 只取一个增强视图            img1 = img1.to(device)            embedding = encoder(img1).cpu().numpy()            normal_embeddings.append(embedding)    normal_embeddings = np.concatenate(normal_embeddings, axis=0)    anomaly_embeddings = []    with torch.no_grad():        for (img1, _) in anomaly_dataloader:            img1 = img1.to(device)            embedding = encoder(img1).cpu().numpy()            anomaly_embeddings.append(embedding)    anomaly_embeddings = np.concatenate(anomaly_embeddings, axis=0)    # 简单地使用Isolation Forest在学习到的嵌入空间上进行异常检测    # 这是一个常见的后处理步骤,用于从表示中提取异常    print("在学习到的嵌入空间上训练Isolation Forest...")    clf = IsolationForest(random_state=42, contamination=0.01) # contamination是一个估计值    clf.fit(normal_embeddings)    normal_scores = clf.decision_function(normal_embeddings)    anomaly_scores = clf.decision_function(anomaly_embeddings)    # 标签:正常为1,异常为-1 (Isolation Forest的输出) 或 0/1    # 为了计算AUC,我们通常将正常标记为0,异常标记为1    y_true = np.concatenate([np.zeros(len(normal_scores)), np.ones(len(anomaly_scores))])    # Isolation Forest的decision_function输出越大越正常,所以我们需要取负数或者1-score    y_scores = np.concatenate([-normal_scores, -anomaly_scores])     auc_roc = roc_auc_score(y_true, y_scores)    print(f"AUC-ROC Score: {auc_roc:.4f}")    return auc_roc# 主运行逻辑if __name__ == "__main__":    BATCH_SIZE = 64    IMAGE_SIZE = 32    EMBEDDING_DIM = 128 # 编码器输出维度    PROJECTION_DIM = 128 # 投影头输出维度    # 准备数据集    normal_dataset = SimpleImageDataset(num_samples=2000, img_size=IMAGE_SIZE)    normal_dataloader = DataLoader(normal_dataset, batch_size=BATCH_SIZE, shuffle=True, drop_last=True)    # 用于评估的测试集(包含正常和异常)    test_normal_dataset = SimpleImageDataset(num_samples=500, img_size=IMAGE_SIZE)    test_anomaly_dataset = SimpleImageDataset(num_samples=100, img_size=IMAGE_SIZE, is_anomaly=True)    test_normal_dataloader = DataLoader(test_normal_dataset, batch_size=BATCH_SIZE, shuffle=False)    test_anomaly_dataloader = DataLoader(test_anomaly_dataset, batch_size=BATCH_SIZE, shuffle=False)    # 初始化模型    encoder = Encoder(in_channels=3, hidden_dim=EMBEDDING_DIM)    projection_head = ProjectionHead(input_dim=EMBEDDING_DIM, output_dim=PROJECTION_DIM)    # 训练模型    train_contrastive_model(encoder, projection_head, normal_dataloader, epochs=50)    # 评估模型    evaluate_anomaly_detection(encoder, test_normal_dataloader, test_anomaly_dataloader)

对比学习在异常检测中的独特优势与挑战

说实话,我个人觉得对比学习在处理异常检测问题时,简直是找到了一个非常巧妙的突破口。传统方法经常苦恼于异常样本的稀缺性,或者干脆没有标签,这让监督学习无从下手。但对比学习不一样,它把“正常”这个概念掰开了揉碎了去学,通过让模型理解什么是“相似”,什么是“不相似”,从而间接定义了什么是“正常”。

它的优势非常明显:

**无需异常标签

以上就是Python如何实现基于对比学习的异常表示学习?的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1365348.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 04:33:22
下一篇 2025年12月14日 04:33:42

相关推荐

  • Python __exit__ 方法中异常信息的有效文本表示

    本文详细阐述了在 Python with 语句的上下文管理器中,__exit__ 方法如何有效捕获并格式化异常信息。我们将探讨如何从 __exit__ 方法的参数中提取简洁的异常类型和消息,以及如何利用 traceback 模块获取并处理完整的堆栈跟踪信息,从而实现灵活的日志记录或错误处理。 在 P…

    好文分享 2025年12月14日
    000
  • 如何用Python实现基于记忆网络的异常检测模型?

    基于记忆网络的异常检测模型通过学习和记忆“正常”模式实现异常识别,其核心步骤如下:1. 数据预处理:对输入数据进行标准化或归一化处理,时间序列数据还需滑动窗口处理以适配模型输入;2. 构建记忆网络架构:包括编码器(如lstm)、记忆模块(存储“正常”原型)和解码器,通过相似度计算与加权求和实现记忆增…

    2025年12月14日 好文分享
    000
  • Python怎样实现基于深度学习的异常检测?Autoencoder应用

    autoencoder在异常检测中的核心思想是学习数据压缩表示并重构,正常数据重构误差小,异常数据误差大。1. 数据准备需标准化或归一化;2. 模型构建采用编码器-解码器结构,用tensorflow或pytorch实现;3. 模型训练以最小化重构误差为目标;4. 异常检测通过比较新数据的重构误差与阈…

    2025年12月14日 好文分享
    000
  • Python函数调用进阶:高效传递itertools排列组合作为独立参数

    本教程详细阐述了如何在Python中将itertools.permutations生成的字典排列组合作为独立参数传递给函数。我们将探讨直接传递列表或使用**解包时遇到的常见TypeError,并提供两种高效且Pythonic的解决方案:通过列表推导式迭代并解包每个排列元组,从而确保函数正确接收所需数…

    2025年12月14日
    000
  • Matplotlib绘图行为解析:脚本与控制台差异及动态更新策略

    本文深入探讨了Matplotlib在Python脚本与交互式控制台中绘图行为的差异,重点阐述了plt.show()在脚本中的关键作用。同时,文章详细介绍了如何通过scatter.set_offsets()和fig.canvas.draw()等方法实现图表的动态更新,避免了重新绘制的开销,提升了数据可…

    2025年12月14日
    000
  • Python中如何构建基于热成像的设备异常识别?

    python中构建基于热成像的设备异常识别系统,需结合图像处理、特征提取和异常检测算法。1)数据采集与预处理:使用热成像相机获取热图并进行去噪、温度校准和图像增强;2)特征提取:包括统计特征(均值、方差等)、纹理特征(如glcm)和形态学特征;3)异常检测:可采用阈值法、统计建模或机器学习方法(如s…

    2025年12月14日 好文分享
    000
  • Python函数参数解包与迭代:高效传递排列组合数据

    本文详细探讨了如何在Python中将itertools.permutations生成的排列组合结果作为独立参数传递给函数。核心问题在于排列组合生成的是元组列表,而函数可能需要多个独立的参数。解决方案是利用循环迭代结合元组解包,将每个排列元组的元素逐一映射到函数参数,从而实现高效、灵活的数据传递。 在…

    2025年12月14日
    000
  • Matplotlib绘图行为解析:从脚本到动态更新的实践指南

    本教程旨在深入探讨Matplotlib在不同运行环境下的绘图行为,特别是脚本与交互式控制台的区别,以及如何实现图表的动态更新。我们将详细解释plt.show()的关键作用、动态更新图表元素(如散点图点位)的方法,并着重解决数据更新后图表不显示新数据的常见问题,提供包含轴限自动调整的实用代码示例,帮助…

    2025年12月14日
    000
  • Python with 语句中 __exit__ 方法的异常处理与日志记录

    本文深入探讨了Python with 语句中上下文管理器的 __exit__ 方法如何有效处理和记录异常。我们将详细解析 __exit__ 方法接收的异常参数,纠正常见的误解,并提供多种策略,包括直接从异常对象构建日志消息、利用 traceback 模块获取格式化回溯信息,以及使用 tracebac…

    2025年12月14日
    000
  • Python中将字典排列组合作为函数参数的有效方法

    本文旨在探讨如何在Python中将itertools.permutations生成的字典排列组合作为独立的参数传递给函数。核心在于理解TypeError产生的原因,并利用循环迭代和序列解包(unpacking)机制,将排列组合中的每个元素元组正确地解包成函数所需的多个独立参数,从而实现高效、灵活的数…

    2025年12月14日
    000
  • 如何用Python检测锂电池生产中的极片缺陷?

    python在锂电池极片缺陷检测中的应用主要通过图像处理与机器学习技术实现自动化识别;1. 图像采集与预处理:使用专业设备获取高质量图像,并通过灰度化、降噪、对比度增强等步骤提升图像质量;2. 特征提取:利用canny边缘检测、lbp纹理特征及形态学操作提取关键缺陷特征;3. 缺陷分类:采用svm、…

    2025年12月14日 好文分享
    000
  • Python中如何使用孤立森林算法检测异常数据?

    孤立森林算法通过随机切分数据快速隔离异常点,适合高维和大规模数据。其核心原理是基于决策树,对异常点进行快速隔离,路径长度越短越可能是异常。优势包括高效性、无需距离度量、内建特征选择、内存效率和对高维数据友好。优化参数时需重点关注n_estimators(树的数量)、max_samples(样本数)和…

    2025年12月14日 好文分享
    000
  • 如何使用Kubeflow构建云原生异常检测平台?

    kubeflow能帮你搭建云原生的异常检测平台,它提供了一套完整的工具链,涵盖数据预处理、模型训练、评估、服务等环节。1. 数据准备与预处理:通过kubeflow pipelines将数据清洗、特征工程封装成组件,并使用apache beam处理大规模数据;2. 模型训练:利用kubeflow tr…

    2025年12月14日 好文分享
    000
  • Python递归函数追踪与性能考量:以序列打印为例

    本文深入探讨了Python中一种递归打印序列元素的方法,并着重演示了如何通过引入缩进参数来有效追踪递归函数的执行流程和参数变化。通过实际代码示例,文章揭示了递归调用可能带来的潜在性能开销,特别是对调用栈空间的需求,以及Python默认递归深度限制可能导致的错误,为读者提供了理解和优化递归算法的实用见…

    2025年12月14日
    000
  • Matplotlib在Python脚本与交互式环境中的绘图行为与动态更新技巧

    本文深入探讨Matplotlib在Python脚本和交互式环境(如Spyder)中的绘图显示机制,重点解释plt.show()在脚本中的必要性。同时,详细解析如何动态更新Matplotlib图表中的数据,特别是针对散点图的set_offsets()方法,并强调在数据范围变化时调整轴限的重要性,以避免…

    2025年12月14日
    000
  • Matplotlib绘图行为解析:脚本、控制台与动态更新机制

    本文深入探讨Matplotlib在Python脚本和交互式控制台中的绘图行为差异,特别是plt.show()的作用及其对图形更新的影响。通过分析散点图动态更新时常见的问题,如标记消失,文章详细阐述了如何利用scatter.set_offsets()和fig.canvas.draw()进行高效图形更新…

    2025年12月14日
    000
  • 深入理解Matplotlib:脚本绘图、动态更新与常见问题解析

    本文旨在深入探讨Matplotlib在Python脚本和交互式控制台中的绘图行为差异,重点解析plt.show()在脚本中的重要性。同时,文章将详细介绍如何利用scatter.set_offsets()和fig.canvas.draw()等方法对散点图进行高效的动态数据更新,避免不必要的重绘,并提供…

    2025年12月14日
    000
  • Python函数如何定义?从入门到精通指南

    python中定义函数的核心是使用def关键字,并可通过参数类型和作用域规则实现灵活的功能。1.定义函数需用def关键字后接函数名、括号及参数,最后以冒号结束,函数体需缩进;2.函数参数包括位置参数、关键字参数、默认参数和可变参数(args与*kwargs),分别用于不同场景的灵活传参;3.函数作用…

    2025年12月14日 好文分享
    000
  • 获取 __exit__ 方法中异常的清晰文本表示

    本文将详细介绍如何在 Python with 语句的上下文管理器 __exit__ 方法中,获取并记录异常的清晰文本表示。我们将探讨如何从 __exit__ 接收的异常参数中提取简洁的异常信息,以及如何生成完整的堆栈跟踪,以满足不同日志需求。通过实际代码示例,您将学会如何有效处理和记录 __exit…

    2025年12月14日
    000
  • Python中如何构建基于振动的轴承寿命预测?

    轴承振动数据采集的关键考量包括传感器类型与安装位置、采样频率、多通道同步性及环境因素。传感器应选用压电式加速度计并安装在靠近轴承的位置以确保灵敏度和耦合性;采样频率需满足奈奎斯特采样定理,通常至少20khz以避免混叠;多通道数据需严格同步以便关联分析;还需考虑温度、负载、转速等环境因素影响,并采集健…

    2025年12月14日 好文分享
    000

发表回复

登录后才能评论
关注微信