飞桨常规赛:点击反欺诈预测-10月第2名方案

本文围绕广告欺诈预测这一二分类任务展开,流程涵盖数据分析、特征工程等。对类别特征用Embedding处理,连续特征标准化;模型维持baseline结构,含embedding、concat等层,采用RMSProp优化器与交叉熵损失。还指出可从特征工程、模型结构等方面改进。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

飞桨常规赛:点击反欺诈预测-10月第2名方案 - 创想鸟

1 赛题背景

广告欺诈是数字营销需要面临的重要挑战之一,点击会欺诈浪费广告主大量金钱,同时对点击数据会产生误导作用。本次比赛提供了约50万次点击数据。特别注意:我们对数据进行了模拟生成,对某些特征含义进行了隐藏,并进行了脱敏处理。

请预测用户的点击行为是否为正常点击,还是作弊行为。点击欺诈预测适用于各种信息流广告投放,banner广告投放,以及百度网盟平台,帮助商家鉴别点击欺诈,锁定精准真实用户。

2 任务分析

根据赛题设置,本任务为二分类任务; 根据数据挖掘与机器学习的一般任务流程,将按照下述流程完成该任务:

数据分析特征工程模型构建模型训练模型调优模型推理

其中,模型调优部分同时涉及数据的再处理(比如选用新的特征工程方案)以及模型结构、优化方法、损失函数等方面的优化

3 解决方案

基于比赛提供的baseline实现,按照以下思路进行:

对于结构化数据中的各字段,进行稠密向量嵌入式表示;并将嵌入维度作为超参数进行调优;维持baseline模型的基本结构不变,调整优化器及其学习率等训练超参数;

4 数据分析

在本赛题中,由于数据形式为结构化数据,为了对数据进行更好的表示以便神经网络模型能够充分挖掘数据背后的模式与规律,参照自然语言处理(NLP)中的字词方法,对数据的各字段进行稠密向量的嵌入式表示,即embedding方法。

简单而言,Embedding方法就是用一个低维的向量表示一个物体,可以是一个词,一个商品,或是一部电影等。这个向量能使距离相近的向量对应的物体有相近的含义,比如“复仇者联盟”对应的向量和“钢铁侠”对应的向量之间的距离(欧几里得距离,汉明距离等)就会很小,但 “复仇者联盟”对应的向量和“乱世佳人”对应的向量之间的距离就会大一些。 此外,Embedding形式的表示使得其背后所代表的“物体”具有数学运算关系,比如:Embedding(马德里)-Embedding(西班牙)+Embedding(法国)≈Embedding(巴黎)。

Embedding能够用低维向量对物体进行编码还能保留其含义的特点非常适合深度学习。在传统机器学习模型构建过程中,经常使用onehot编码对离散特征、特别是id类特征进行编码,但由于onehot编码的维度等于物体的类别总数,这样的编码方式对于类别型变量来说是极端稀疏的,而深度学习的特点使其不利于对稀疏特征向量的处理。

因此,在本任务中,先对数据集中的类别型变量进行嵌入式表示(连续性变量进行标准化),将处理之后的字段输入到神经网络模型中用以分类。

5 模型分析

本任务中,模型结构维持baseline提供的模型结构基本不变,其主要由embedding层、concat层以及dense层组成,embedding层用于获取每个输入字段值的嵌入式表示向量,concat层用于拼接所有字段的表示向量成为一个总的样本特征向量,dense层用于转换数据大小,其中模型最后一层的输出维度为2(类别数目),激活函数使用softmax函数。

关于模型的优化器与损失函数,优化器使用RMSProp,损失函数使用分类任务常设的交叉熵损失函数。

6 总结改进

根据赛题重点,合理有效地处理数据集的各类特征是完成分类任务的关键之处。 本项目只是使用较为初级的多层感知机网络执行分类任务,项目可改进的地方包含但不限于:

进一步细化特征处理办法,深化特征工程有关工作,Embedding处理只是其中一个方法; 改进或换用预测模型结构,可以尝试使用现代深度学习框架内更为先进的神经网络模型; 更换任务思路,采用传统机器学习项目中的相关思路与模型解决该问题,如适用于结构化数据的TabNet网络。

7 飞桨使用

在使用paddlepaddle进行深度学习时,注重理论课程与实践应用的合理结合; 一方面,强调通过资料与视频课程领会框架的基本使用; 另一方面,需要结合具体应用(如参加飞桨的各类竞赛)熟练掌握数据预处理、模型构建、模型训练、模型调优与应用等深度学习各阶段操作

8 参考资料

本次竞赛的baseline代码深入浅出Word2Vec原理解析Embedding从入门到专家必读的十篇论文

feature_process

In [ ]

import osimport pandas as pdimport numpy as npfrom paddle.io import Datasetfrom baseline_tools import *DATA_RATIO = 0.9  # 训练集和验证集比例TAGS = {'android_id': None,        'apptype': "emb",        'carrier': "emb",        'dev_height': "emb",        'dev_ppi': "emb",        'dev_width': "emb",        'lan': "emb",        'media_id': "emb",        'ntt': "emb",        'os': "emb",        'osv': None,        'package': "emb",        'sid': None,        'timestamp': "norm",        'version': "emb",        'fea_hash': None,        'location': "emb",        'fea1_hash': None,        'cus_type': None}# 归一化权重设置NORM_WEIGHT = {'timestamp': 6.40986e-12}

In [ ]

TRAIN_PATH = "train.csv"SAVE_PATH = "emb_dicts"df = pd.read_csv(TRAIN_PATH, index_col=0)pack = dict()for tag, tag_method in TAGS.items():    if tag_method != "emb":        continue    data = df.loc[:, tag]    dict_size = make_dict_file(data, SAVE_PATH, dict_name=tag)    pack[tag] = dict_size + 1  # +1是为了增加字典中不存在的情况,提供一个默认值with open(os.path.join(SAVE_PATH, "size.dict"), "w", encoding="utf-8") as f:    f.write(str(pack))print("全部生成完毕")

data_loading

In [ ]

def get_size_dict(dict_path="./emb_dicts/size.dict"):    """    获取Embedding推荐大小    :param dict_path: 由run_make_emb_dict.py生成的size.dict    :return: 推荐大小字典{key: num}    """    with open(dict_path, "r", encoding="utf-8") as f:        try:            size_dict = eval(f.read())        except Exception as e:            print("size_dict打开失败,请检查", dict_path, "文件是否正常,报错信息如下:n", e)        return size_dictclass Reader(Dataset):    def __init__(self,                 is_infer: bool = False,                 is_val: bool = False,                 use_mini_train: bool = False,                 emb_dict_path="./emb_dicts"):        """        数据读取类        :param is_infer: 是否为预测Reader        :param is_val: 是否为验证Reader        :param use_mini_train:使用Mini数据集        :param emb_dict_path: emb字典路径        """        super().__init__()        # 选择文件名        train_name = "mini_train" if use_mini_train else "train"        file_name = "test" if is_infer else train_name        # 根据文件名读取对应csv文件        df = pd.read_csv(file_name + ".csv")        # 划分数据集        if is_infer:            self.df = df.reset_index()        else:            start_index = 0 if not is_val else int(len(df) * DATA_RATIO)            end_index = int(len(df) * DATA_RATIO) if not is_val else len(df)            self.df = df.loc[start_index:end_index].reset_index()        # 数据预处理        self.cols = [tag for tag, tag_method in TAGS.items() if tag_method is not None]        self.methods = dict()        for col in self.cols:            # ===== 预处理方法注册 =====            if TAGS[col] == "emb":                self.methods[col] = Data2IdEmb(dict_path=emb_dict_path, dict_name=col).get_method()            elif TAGS[col] == "norm":                self.methods[col] = Data2IdNorm(norm_weight=NORM_WEIGHT[col]).get_method()            else:                raise Exception(str(TAGS) + "是未知的预处理方案,请选手在此位置使用elif注册")        # 设置FLAG负责控制__getitem__的pack是否包含label        self.add_label = not is_infer        # 设置FLAG负责控制数据集划分情况        self.is_val = is_val    def __getitem__(self, index):        """        获取sample        :param index: sample_id        :return: sample        """        # 因为本次数据集的字段非常多,这里就使用一个列表来"收纳"这些数据        pack = []        # 遍历指定数量的字段        for col in self.cols:            sample = self.df.loc[index, col]            sample = self.methods[col](sample)            pack.append(sample)        # 如果不是预测,则添加标签数据        if self.add_label:            tag_data = self.df.loc[index, "label"]            tag_data = np.array(tag_data).astype("int64")            pack.append(tag_data)            return pack        else:            return pack    def __len__(self):        return len(self.df)# 获取训练集和测试集数据读取器USE_MINI_DATA = Falsetrain_reader = Reader(use_mini_train=USE_MINI_DATA)val_reader = Reader(use_mini_train=USE_MINI_DATA, is_val=True)

model_define

In [ ]

import osimport numpy as npimport pandas as pdimport paddleimport paddle.nn as nnimport paddle.tensor as tensorfrom paddle.static import InputSpecfrom paddle.metric import Accuracy# 模型保存与加载文件夹SAVE_DIR = "./output/"# 部分训练超参数EMB_SIZE = 256  # Embedding特征大小EMB_LINEAR_SIZE = 32  # Embedding后接Linear层神经元数量LINEAR_LAYERS_NUM = 2  # 归一化方案的Linear层数量# 组网class SampleNet(paddle.nn.Layer):    def __init__(self, tag_dict: dict, size_dict: dict):        super().__init__()        # 新建一个隐藏层列表,用于存储各字段隐藏层对象        self.hidden_layers_list = []        # 定义一个用于记录输出层的输入大小变量,经过一个emb的网络结构就增加该结构的output_dim,以此类推        out_layer_input_size = 0        # 遍历每个字段以及其处理方式        for tag, tag_method in tag_dict.items():            # Embedding方法注册            if tag_method == "emb":                hidden_layer = nn.LayerList([nn.Embedding(num_embeddings=size_dict[tag],                                                          embedding_dim=EMB_SIZE),                                             nn.Linear(in_features=EMB_SIZE, out_features=EMB_LINEAR_SIZE)])                out_layer_input_size += EMB_LINEAR_SIZE            # 归一化方法注册            elif tag_method == "norm":                hidden_layer = nn.LayerList(                    [nn.Linear(in_features=1, out_features=1) for _ in range(LINEAR_LAYERS_NUM)])                out_layer_input_size += 1            # 如果对应方法为None,那么跳过该字段            elif tag_method is None:                continue            # 若出现没有注册的方法,提示报错            else:                raise Exception(str(tag_method) + "为未知的处理方案,请在SampleNet类中用elif注册处理流程")            self.hidden_layers_list.append(hidden_layer)                self.out_layers = nn.Linear(in_features=out_layer_input_size,out_features=2)    # 前向推理部分 `*input_data`的`*`表示传入任一数量的变量    def forward(self, *input_data):        layer_list = []  # 用于存储各字段特征结果        for sample_data, hidden_layers in zip(input_data, self.hidden_layers_list):            tmp = sample_data            for hidden_layer in hidden_layers:                tmp = hidden_layer(tmp)            layer_list.append(tensor.flatten(tmp, start_axis=1))  # flatten是因为原始shape为[batch size, 1 , *n], 需要变换为[bs, n]        # 对所有字段的特征合并        layers = tensor.concat(layer_list, axis=1)        # 把特征放入用于输出层的网络        result = self.out_layers(layers)        result = paddle.nn.functional.softmax(result)                # 返回分类结果        return result

In [ ]

# 定义网络输入inputs = []for tag_name, tag_m in TAGS.items():    d_type = "float32"    if tag_m == "emb":        d_type = "int64"    if tag_m is None:        continue    inputs.append(InputSpec(shape=[-1, 1], dtype=d_type, name=tag_name))# 定义Labellabels = [InputSpec([-1, 1], 'int64', name='label')]# 实例化SampleNetmodel = paddle.Model(SampleNet(TAGS, get_size_dict()), inputs=inputs, labels=labels)

model_config

In [ ]

from paddle.optimizer import RMSProp# 定义优化器optimizer = RMSProp(learning_rate=0.01, parameters=model.parameters())# 模型训练配置model.prepare(optimizer, paddle.nn.loss.CrossEntropyLoss(), Accuracy())

model_training

In [7]

# 开始训练model.fit(train_data=train_reader,  # 训练集数据            eval_data=val_reader,  # 验证集数据            batch_size=128,  # Batch size大小            epochs=10,  # 训练轮数            log_freq=1000,  # 日志打印间隔            save_dir=SAVE_DIR)  # checkpoint保存路径

model_reasoning

In [ ]

# 推理部分CHECK_POINT_ID = "final"  TEST_BATCH_SIZE = 128  # 实例化SampleNetmodel = paddle.Model(SampleNet(TAGS, get_size_dict()), inputs=inputs)# 获取推理Reader并读取参数进行推理infer_reader = Reader(is_infer=True)model.load(os.path.join(SAVE_DIR, CHECK_POINT_ID))

In [ ]

# 开始推理model.prepare()infer_output = model.predict(infer_reader, TEST_BATCH_SIZE)# 获取原始表中的字段并添加推理结果result_df = infer_reader.df.loc[:, "sid"]pack = []for batch_out in infer_output[0]:    for sample in batch_out:        pack.append(np.argmax(sample))# 保存csv文件RESULT_FILE = "./result1.csv"  result_df = pd.DataFrame({"sid": np.array(result_df, dtype="int64"), "label": pack})result_df.to_csv(RESULT_FILE, index=False)print("结果文件保存至:", RESULT_FILE)

In [ ]


以上就是飞桨常规赛:点击反欺诈预测-10月第2名方案的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/46863.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月7日 20:34:01
下一篇 2025年11月7日 20:37:47

相关推荐

  • RSS订阅中的作者信息格式

    RSS和Atom中作者信息通过或标签标识,包含姓名、邮箱及网站链接,支持多作者;正确设置有助于提升内容可信度、便于追踪与SEO。 RSS订阅中的作者信息格式,主要用于标识文章的作者,让读者知道是谁写的,方便追踪特定作者的内容。格式通常包含作者姓名、邮箱,有时还会包含作者的网站链接。 作者信息的常见格…

    2025年12月17日
    000
  • XML中如何解压XML字符串_XML解压XML字符串的操作方法

    先解压再解析XML。C#用GZipStream解压字节流并转字符串,Java用GZIPInputStream或InflaterInputStream读取压缩数据,结合StreamReader或BufferedReader还原为明文XML后,交由XDocument或DocumentBuilder解析;…

    2025年12月17日
    000
  • XML中如何判断节点是否存在_XML判断节点存在性的技巧与方法

    使用XPath或find方法判断XML节点是否存在,若返回结果为空则节点不存在,结合attrib检查属性,并区分节点存在与文本内容是否为空。 在处理XML文档时,判断某个节点是否存在是一个常见需求。无论是解析配置文件、处理接口返回数据,还是进行数据校验,准确判断节点是否存在可以避免程序出错。以下是几…

    2025年12月17日
    000
  • XML中如何检查节点顺序_XML检查节点顺序的方法与技巧

    使用XPath、DOM解析、XSD约束和断言工具可检查XML节点顺序。首先通过XPath的position()函数验证节点位置,如//data/item[@type=’A’ and position()=1];其次用Python等语言解析DOM并比对实际与预期顺序;再者利用X…

    2025年12月17日
    000
  • RSS源如何实现内容推荐

    要实现RSS%ignore_a_1%,需在RSS数据基础上构建智能推荐系统。首先通过feedparser等工具抓取并解析RSS内容,提取标题、摘要、发布时间等信息,并存储到数据库中;对于仅提供片段的源,可结合Web Scraping技术获取全文。随后利用NLP技术对内容进行处理,包括分词、去停用词、…

    2025年12月17日
    000
  • 什么是OpenTravel标准

    OpenTravel标准是旅游行业通用的XML消息格式,由OpenTravel Alliance维护,通过定义如OTA_AirAvailRQ/RS等消息类型,实现航空公司、酒店、旅行社等系统间的数据互通;它简化集成、降低成本,并支持自动化预订与查询;尽管JSON在轻量性和解析速度上占优,但OpenT…

    2025年12月17日
    000
  • XML中如何修改节点值_XML修改节点值的实用方法与注意事项

    使用DOM、XPath或流式处理可修改XML节点值,推荐小文件用DOM+XPath、大文件用流式处理,注意编码、空节点、格式保留及备份验证。 在处理XML数据时,修改节点值是一个常见需求。无论是配置文件更新、数据转换,还是接口报文调整,掌握正确的方法至关重要。下面介绍几种实用的XML节点值修改方式,…

    2025年12月17日
    000
  • XML中如何处理空值_XML处理XML空值的技巧与方法

    使用xsi:nil=”true”显式表示XML空值,需声明命名空间并确保Schema允许;区分空字符串与缺失元素的语义差异;解析时通过DOM、SAX或XPath设置默认值;Schema设计中合理配置minOccurs和nillable属性以预防问题;关键在于各环节统一处理策略…

    2025年12月17日
    000
  • 如何转换XML到数据库表

    答案:XML转数据库需分析结构、设计表、选择解析技术并处理数据类型与性能。首先解析XML层次结构,映射实体为表,属性为列,嵌套元素转子表;选用DOM或SAX等工具,结合Python、Java等语言实现ETL;注意数据类型转换、缺失值、主键设计及范式权衡;面对大文件用流式解析与批量插入优化性能,确保事…

    2025年12月17日
    000
  • XML Schema数据类型有哪些?如何定义?

    XML Schema提供内置数据类型和自定义类型机制,用于约束XML文档结构。常见内置类型包括xs:string、xs:int、xs:date等,支持通过限制取值范围或枚举,如定义Gender枚举和Age范围;使用定义包含子元素和属性的复杂结构,如Person类型包含FirstName、LastNa…

    2025年12月17日
    000
  • XML中如何处理属性冲突_XML处理属性冲突的方法与技巧

    属性冲突源于多命名空间同名属性、重复定义或默认值与显式赋值矛盾,可通过命名空间前缀区分来源、XSD/Schema约束定义及解析时优先级规则有效避免。 在XML文档中,属性冲突通常发生在多个命名空间或重复定义的属性导致解析困难时。正确处理这些冲突对保证数据完整性和解析效率至关重要。 理解属性冲突的来源…

    2025年12月17日
    000
  • XML与SVG图像格式有何关系?如何嵌入?

    SVG是基于XML的矢量图形格式,使用XML标签定义图形元素,如圆形、矩形等,具有结构清晰、可读性强的特点。例如,一个蓝色圆的SVG代码即为符合XML语法的文本文件。在网页中,SVG可通过多种方式嵌入:1. 直接内联嵌入,便于样式和脚本控制;2. 使用img标签引用外部SVG文件,适用于静态图像;3…

    2025年12月17日
    000
  • XML中如何创建XML模板_XML创建XML模板的操作步骤

    明确数据结构和用途,确定节点、层级及是否需要命名空间;2. 编写基础XML结构,用占位符标记可变内容;3. 可选添加命名空间、属性或DTD/Schema声明;4. 保存为模板文件并通过程序替换占位符复用。 在XML中创建模板,其实是指设计一个结构清晰、可复用的XML文件框架,用于后续填充数据或作为其…

    2025年12月17日
    000
  • XML中如何合并节点属性_XML合并节点属性的方法与技巧

    合并XML节点属性需基于唯一标识识别目标节点,通过编程语言(如Python)或XSLT实现属性整合。1. 使用Python的ElementTree解析XML,遍历属性并根据策略(如允许覆盖)合并;2. 利用XSLT模板匹配同名节点,复制源属性并筛选不冲突的目标属性;3. 注意处理属性冲突、确保节点唯…

    2025年12月17日
    000
  • XML标准化组织有哪些?W3C角色是什么?

    W3C是XML标准的源头和主导力量,于1998年发布XML 1.0规范,定义了XML语言基础并推动其发展;OASIS、ISO和IETF等组织在企业应用、国际标准对接和协议支持等方面协同扩展XML应用,共同促进结构化数据在Web和企业系统中的广泛使用。 在XML(可扩展标记语言)的发展和标准化过程中,…

    2025年12月17日
    000
  • 什么是XMDP?如何定义元数据

    XMDP是一种元数据定义的元语言,通过XML文件规范微格式中class和rel属性的语义,为HTML提供机器可读的“字典”,提升网页语义化与数据互操作性;其核心在于定义“如何定义数据”,虽在现代Web中被Schema.org等主流标准取代,但其思想对理解语义Web演进仍具价值。 XMDP,全称Ext…

    2025年12月17日
    000
  • 如何实现XML数据脱敏

    XML数据脱敏需先识别敏感信息,再结合业务需求选择替换、掩码、删除或加密等策略,利用XPath精准定位,并通过DOM、SAX或XSLT技术实现,同时兼顾结构复杂性、性能、数据一致性与合规性要求。 实现XML数据脱敏,核心在于精准识别XML文档中的敏感信息,并根据业务需求和合规性要求,运用合适的脱敏策…

    2025年12月17日
    000
  • XML数据库是什么?如何存储XML数据?

    原生XML数据库如eXist-db和BaseX直接存储XML层次结构,支持XPath/XQuery查询;关系数据库则通过XML字段或分解为表结构来管理XML数据,存储方式包括纯文本、分解、混合型和二进制序列化,选择需根据数据结构稳定性、查询需求和性能权衡。 XML数据库是一种专门设计用来存储、查询和…

    2025年12月17日
    000
  • XML格式的化学分子式标准

    XML格式的化学分子式标准优势在于结构化、可扩展和自描述性,便于数据交换与解析;通过定义XML Schema(XSD)可验证文件有效性,确保元素和属性符合规范;其在化学信息学中广泛应用于分子式、反应、性质及文献元数据的标准化表示与系统间共享。 XML格式的化学分子式标准,简单来说,就是一种用XML来…

    2025年12月17日
    000
  • XML Schema有何作用?如何定义XSD文件?

    XML Schema用于定义XML文档结构、元素、属性及数据类型,支持命名空间和复杂约束,通过XSD文件实现数据校验与规范。 XML Schema(XML 模式)用于定义 XML 文档的结构、元素、属性及其数据类型,确保 XML 内容符合预设规则。相比 DTD,XML Schema 支持数据类型、命…

    2025年12月17日
    000

发表回复

登录后才能评论
关注微信