飞桨常规赛:点击反欺诈预测 – 4月第8名方案

该方案针对飞桨点击反欺诈预测赛题,处理约50万点击数据。预处理含样本打乱,连续特征归一化、离散特征嵌入(处理高基数特征);构建双层双向GRU模型,含嵌入层、全连接层等;用Adam优化器,batch_size50,动态调学习率,最高得分88.992分,还做了模型对比与优化展望。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

飞桨常规赛:点击反欺诈预测 - 4月第8名方案 - 创想鸟

飞桨常规赛:点击反欺诈预测 – 4月第8名方案

作者:@LYX-夜光

1 比赛介绍

  广告欺诈是数字营销需要面临的重要挑战之一,点击会欺诈浪费广告主大量金钱,同时对点击数据会产生误导作用。本次比赛提供了约50万次点击数据。
  特别注意: 该数据是模拟生成,对某些特征含义进行了隐藏,并进行了脱敏处理。请预测用户的点击行为是否为正常点击,还是作弊行为。点击欺诈预测适用于各种信息流广告投放,banner广告投放,以及百度网盟平台,帮助商家鉴别点击欺诈,锁定精准真实用户。
  赛题链接:点击反欺诈预测

2 思路介绍

2.1 数据预处理

  1. 样本分析: 点击反欺诈预测是一个二分类问题,对于分类问题,首先需要统计数据集正反例样本的占比,假如正例样本占比太大,可能会使模型更倾向于预测出正例的结果。因此,对于样本不平衡的数据集,一般采用上采样或下采样等方法。由于本赛题的数据集样本比较平均,因此不需要对数据集进行平衡处理。
  2. 样本打乱: 将数据集中样本打乱,这样是为了防止模型在训练时记住了样本的某种顺序特性,以免影响模型的泛化能力。将打乱后的数据集的前90%作为训练集、后10%作为验证集。
  3. 特征分析: 观察数据集特征,除“sid”(样本id)、“label”(分类结果)之外,数据集特征共有18个,其中“dev_height“,”dev_ppi“,”dev_width”,“timestamp”是连续特征,其余都是离散特征。连续特征与离散特征的区别是,前者存在特征值的某种大小关系,后者只存在特征值是否相等的关系。常见的连续特征处理方法有归一化、标准化等;离散特征的处理方法有独热编码(one-hot)、嵌入(embedding)等。考虑到“dev_xxx”等特征的不同取值较少,同时直观感觉这些特征的大小关系与是否欺诈的关联性不大,因此将“dev_xxx”等特征作为离散值处理。
  4. 特征处理: 将连续特征归一化(value−min)/(max−min)(value−min)/(max−min);对离散特征采用embedding,首先进行独热编码,即将离散特征值映射为0到n-1的整数,n为每个特征值的不同取值数。由于“android_id”、“package”、“fea_hash”、“fea1_hash”等特征的【不同取值的个数较多(如某特征在50W数据中有30W+的不同取值)】且【存在较多的相同取值计数小的样本(设某特征存在特征值”value1″、”value2″、…,对相同取值为”value1″、”value2″、…等样本统计样本数,数据集中存在有较多样本数少的样本)】,因此将这些相同特征值的样本数小于等于15的特征值转换为同一个值,这种处理一方面可以减少嵌入参数、缩短训练时间,另一方面减少相同特征值的样本数太少所带来的偶然性。
  数据预处理部分代码如下:

# 特征处理方式,1:嵌入,2:归一化class DealType(Enum):    EMB = 1    NORM = 2    EMB_FILTER = 3# None为舍弃特征FEATURE_PATTERN = {    # 'sid': None,    'android_id': DealType.EMB_FILTER,    'media_id': DealType.EMB,    'apptype': DealType.EMB,    'package': DealType.EMB_FILTER,    'version': DealType.EMB,    'ntt': DealType.EMB,    'carrier': DealType.EMB,    'os': DealType.EMB,    'osv': DealType.EMB,    'dev_height': DealType.EMB,    'dev_ppi': DealType.EMB,    'dev_width': DealType.EMB,    'lan': DealType.EMB,    'location': DealType.EMB,    'fea_hash': DealType.EMB_FILTER,    'fea1_hash': DealType.EMB_FILTER,    'cus_type': DealType.EMB,    'timestamp': DealType.NORM,}FEATURE_PATTERN_NEW = FEATURE_PATTERN.copy()FEATURE_PATTERN_NEW.update({    'android_id': DealType.EMB,    'package': DealType.EMB,    'fea_hash': DealType.EMB,    'fea1_hash': DealType.EMB})FEATURE_LIST = [feat for feat in FEATURE_PATTERN_NEW if FEATURE_PATTERN_NEW[feat]]# 训练集,验证集比例TRAIN_RATIO = 0.9VAL_RATIO = 0.1# 转换大离散特征for feat in FEATURE_PATTERN:    if FEATURE_PATTERN[feat] == DealType.EMB_FILTER:        trainPoint = int(len(trainData[feat]) * TRAIN_RATIO)        trainValue = trainData[feat][:trainPoint]        valueDict = {value: str(value) for value in set(trainValue) if value is not np.nan}        data = trainData.iloc[:trainPoint].groupby(feat)[feat].count()        removeValue = -1        data[data <= 15] = removeValue        valueDict.update(data.loc[data == removeValue].to_dict())        trainData[feat] = trainData[feat].map(valueDict)        trainData[feat] = trainData[feat].replace({np.nan: removeValue})        testData[feat] = testData[feat].map(valueDict)        testData[feat] = testData[feat].replace({np.nan: removeValue})

       

2.2 模型构建

飞桨常规赛:点击反欺诈预测 - 4月第8名方案 - 创想鸟
           图1 神经网络模型

  如图1,模型说明如下:
  1. 嵌入层: 对离散特征采用嵌入(embedding),embedding的输出维度一般设为k⌊size4⌋(k≤16)k⌊4size⌋(k≤16),sizesize为某特征的不同取值数量,在这里取k=1k=1。
  2. 隐藏全连接层: 对每个连续特征和已嵌入的离散特征分别构造全连接,将全连接的输出设为同一维度nn,这是为了后面可直接采用GRU网络,这里设n=1n=1。该步骤相当于特征重建,即重新构建了与原始输入数据同一维度的特征。
  3. GRU层: 考虑到特征之间存在某种关联,如有些特征同属于用户特征、有些同属于媒体特征。由于LSTM或GRU能够很好地记忆特征间关联的信息,并且GRU在很多方面比LSTM更优,同时GRU比LSTM少一个门,在运算时能节省时间,因此采用GRU。这里采用双层双向GRU,采用双向是认为特征之间前后都有关联,而不仅仅是后面的特征与前面的特征有关联,设hidden_size=18,与特征个数相同。
  4. 输出全连接层: 采用两层全连接层,最后激活函数使用softmax。
       

  组网代码:

class ConNet(paddle.nn.Layer):    def __init__(self, sizeDict: dict):        super().__init__()        # 存储每个特征的隐藏层        self.hidden_layers_list = nn.LayerList([])        # 统计隐藏层输出结点        out_features = 1        for feat in FEATURE_LIST:            if FEATURE_PATTERN_NEW[feat] == DealType.EMB:                embedding_dim = int(np.power(sizeDict[feat], 0.25))                hidden_layer = nn.LayerList([nn.Embedding(num_embeddings=sizeDict[feat], embedding_dim=embedding_dim),                                             nn.Linear(in_features=embedding_dim, out_features=out_features)])            else:                hidden_layer = nn.LayerList([nn.Linear(in_features=1, out_features=out_features)])            self.hidden_layers_list.append(hidden_layer)        feature_size, hidden_size = len(FEATURE_LIST), len(FEATURE_LIST)        self.gru = nn.GRU(input_size=out_features, hidden_size=hidden_size, time_major=True, num_layers=2, direction="bidirect", dropout=0.2)        out_layer1_in_features, out_layer1_out_features = feature_size+hidden_size*4, hidden_size        self.out_layer1 = nn.Linear(in_features=out_layer1_in_features, out_features=out_layer1_out_features)        self.out_layer2 = nn.Linear(in_features=out_layer1_out_features, out_features=2)        self.softmax = nn.Softmax()    def forward(self, X):        layerList = []        for x, hidden_layers in zip(X, self.hidden_layers_list):            for hidden_layer in hidden_layers:                x = hidden_layer(x)            # 将[batch_size, 1, out_features] 转为 [batch_size, out_features]            layerList.append(tensor.flatten(x, start_axis=1))        # 在0维扩展维度        X = tensor.stack(layerList, 0)  # [time_step, batch_size, vector_size]        # 送入GRU,将每个batch的输出拼成向量        out, hc = self.gru(X)        out = out[:, :, -1].transpose((1, 0)).unsqueeze(0)        # 合并        y = tensor.concat(list(out)+list(hc), axis=1)        # 把特征放入用于输出层的网络        y = self.out_layer1(y)        y = self.out_layer2(y)        y = self.softmax(y)        # 返回分类结果        return y

       

2.3 训练调参

  1. batch_size: 设为50,不确定设为多大最合适,尽量保证能整除训练集数量
  2. 优化器: 选择Adam,确保能够快速收敛
  3. 学习率lr: 先设为0.001,训练大概30个左右epoch后,选择验证集损失(val loss)最小的模型参数,再将学习率设为0.0005,再进行训练,看情况再依次递减学习率训练
       

3 模型结果和对比分析

3.1 模型结果

  采用以上的思路,模型的预测结果分数大部分时候有88.9分以上,最高能达到88.992分
       

3.2 模型对比

  1. 特征选取对比: 刚开始没有选取所有特征,因为考虑到”android_id“等特征的不同取值数量太大,不适合用于嵌入,”os“特征取值只有两个取值,而且两个取值只有首字母大小写的区别,因此舍弃了几个特征。后面通过逐个增加特征对比,发现利用所有特征的效果最好。
  2. 特征处理对比: 将“dev_xxx”等特征用【归一化】和【嵌入】作对比,发现后者【嵌入】效果较好;将“fea1_hash”特征【直接嵌入】和【特征处理:将相同取值的样本数小于等于15转化为相同值】作对比,发现后者【特征处理】效果更好;比较【特征处理:将相同取值的样本数小于等于k转化为相同值】,k取5或10时,不如k=15,k取20与15差不多;将“timestamp”特征拆分为“day”、“hour”、“minute”,再进行嵌入,效果比”timestamp”直接使用归一化差。
  3. 嵌入维度对比: 将【embedding输出维度统一为同一值(如统一输出为4,8,16,32等)】与【embedding输出维度k⌊size4⌋(k≤16),k=1k⌊4size⌋(k≤16),k=1】作对比,发现后者优于前者;将kk取值为1和2做对比,发现k=1k=1效果较好。
  4. 隐藏全连接层对比: 将隐藏全连接输出维度取1和2作对比,发现取1时较好。
  5. GRU层对比: 加上GRU层明显比仅使用全连接层效果好,hidden_size采用8或32时,比采用16或18效果较差。使用双层GRU比单层效果好,三层与双层效果差不多。
  6. 输出全连接层对比: 使用两层全连接层比一层效果好。
  7. 优化器对比: 测试了SGD、Momentum、Adam、Adadelta等优化器,发现Adam明显优于其他优化器。
  注意: 以上对比如有出入的地方,可能是因为实验做得不充分,另一方面可能由于权值初始化是随机的,无法做出比较准确的对比。

4 总结与展望

4.1 总结

  本文思路和代码参考了baseline,从一开始的86.36分,再一步步调优直到88.99分,期间遇到了很多困难,主要在调参和对比方面,随机初始权值也给模型对比带来了困难。本文的模型在训练时,有时候在epoch较大时会出现loss为nan的问题,至今也不知道为什么,应该不是学习率太大造成的;训练时有时候也没法达到88.9分,这可能是随机初始权值的问题,也可能是模型本身的问题。总之,该模型还是存在着不足。

4.2 展望

  本文思路还有几个可以优化的点:
  1. 特征工程: 可以构造新的特征,或者用其他方法对特征缺失值进行填充;
  2. 模型构建: 如给GRU加入注意力机制,修改模型以及对应的输出等;
  3. 训练调参: 测试batch_size等参数。

  最后,要感谢百度飞桨给我们免费提供算力,在AI Studio中运行项目可以同时运行3个,只要网页不关闭可以一直运行下去,在我模型调参时节约了很多时间。而且,飞桨深度学习框架用起来也很方便,能很快上手,用其他学习框架实现的代码能够很容易地用飞桨框架迁移。
  总之,飞桨很不错,值得大家体验。

附录

执行数据预处理命令:run initData.py

In [28]

run initData.py

       

新训练集创建完成!新测试集创建完成!=================构建特征字典=================特征[android_id]嵌入完毕,value共13个特征[media_id]嵌入完毕,value共292个特征[apptype]嵌入完毕,value共89个特征[package]嵌入完毕,value共364个特征[version]嵌入完毕,value共23个特征[ntt]嵌入完毕,value共8个特征[carrier]嵌入完毕,value共5个特征[os]嵌入完毕,value共2个特征[osv]嵌入完毕,value共165个特征[dev_height]嵌入完毕,value共864个特征[dev_ppi]嵌入完毕,value共105个特征[dev_width]嵌入完毕,value共382个特征[lan]嵌入完毕,value共25个特征[location]嵌入完毕,value共332个特征[fea_hash]嵌入完毕,value共60个特征[fea1_hash]嵌入完毕,value共627个特征[cus_type]嵌入完毕,value共58个特征[timestamp]统计最大最小值完毕=================字典构建完毕=================

       

执行训练命令:run train.py

温馨提示:训练时间需要较久,用CPU每轮约300s-400s,最优模型参数已存储,想直接推理结果可跳过此步,若要训练需要取消如下命令的注释。

In [29]

# run train.py

   

执行推理命令:run test.py

温馨提示:执行该命令前必须先执行run initData.py

In [30]

run test.py

       

mode: pred - batch: 100/3000mode: pred - batch: 200/3000mode: pred - batch: 300/3000mode: pred - batch: 400/3000mode: pred - batch: 500/3000mode: pred - batch: 600/3000mode: pred - batch: 700/3000mode: pred - batch: 800/3000mode: pred - batch: 900/3000mode: pred - batch: 1000/3000mode: pred - batch: 1100/3000mode: pred - batch: 1200/3000mode: pred - batch: 1300/3000mode: pred - batch: 1400/3000mode: pred - batch: 1500/3000mode: pred - batch: 1600/3000mode: pred - batch: 1700/3000mode: pred - batch: 1800/3000mode: pred - batch: 1900/3000mode: pred - batch: 2000/3000mode: pred - batch: 2100/3000mode: pred - batch: 2200/3000mode: pred - batch: 2300/3000mode: pred - batch: 2400/3000mode: pred - batch: 2500/3000mode: pred - batch: 2600/3000mode: pred - batch: 2700/3000mode: pred - batch: 2800/3000mode: pred - batch: 2900/3000mode: pred - batch: 3000/3000结果文件保存至: ./results/results_0.0005_06.csv

       

以上就是飞桨常规赛:点击反欺诈预测 – 4月第8名方案的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/45844.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月7日 15:09:29
下一篇 2025年11月7日 15:13:32

相关推荐

  • 佩佩托:青蛙之神投资代币指南

    深入了解佩佩托(pepeto,简称 pepeto),这个以青蛙形象为核心、融合迷因文化与 web3 技术的创新代币。本文将带你探索其质押机制、零手续费交易特性,以及它如何挑战主流迷因币巨头的地位。 Pepeto:你的投资指南,“蛙神”深度剖析 别再追逐一时热度;Pepeto(PEPETO)正在稳步崛…

    2025年12月11日
    000
  • OP代币价格预测:牛市信号浮现?

    op 代币即将迎来牛市?最新技术分析与市场趋势暗示潜在突破。让我们一起探究最新的预测动态。 OP 代币价格展望:是否出现牛市信号? OP 代币正展现出新的活力!随着潜在的上行形态逐步形成,牛市是否正在临近?本文将为你解析 OP 的最新走势与前景,带来不可忽视的关键信息。 技术面释放突破迹象 ZAYK…

    2025年12月11日
    000
  • MoonBull的模因币狂热:交易量激增与专属白名单

    moonbull($mobu)以其独特的白名单机制和奖励模式,在竞争激烈的模因币市场中脱颖而出。它会是2025年值得关注的最佳加密货币吗? MoonBull是一款新兴的模因币,因其在早期访问权和社区激励方面的创新做法而受到广泛关注。与传统公开发行方式不同,MoonBull采用“先白名单后开放”的策略…

    2025年12月11日
    000
  • Coinbase、DeFi 代币与交易量:有何热议?

    探索coinbase、defi代币与交易量的动态变化,揭示加密货币领域发展的关键趋势和洞察。alt季节已经到来! Coinbase、DeFi代币与交易量:有哪些值得关注的动向? 随着比特币主导地位逐渐减弱,Coinbase正积极引入DeFi代币,从而引发交易量的新一轮波动。Alt季节正式开启,朋友们…

    2025年12月11日
    000
  • Omni Network(OMNI):飙升收益还是风险投资?

    omni network近期价格大幅上涨,引发了市场热议。它究竟是值得入手的潜力资产,还是又一次短暂的泡沫?我们来一探究竟。 Omni Network(OMNI)最近价格飙升了108%,在加密圈掀起了不小波澜。这个项目是2025年推出的Layer 1区块链,目标是整合以太坊rollup生态。但它是真…

    2025年12月11日
    000
  • DDC股票随Animoca Brands比特币合作飙升:企业国库的新时代?

    ddc 股票因与 animoca brands 签署 1 亿美元比特币合作引发市场热议。这是否预示着企业资金管理的新方向?我们一起来分析。 DDC 股价异动,与 Animoca Brands 的比特币合作能否引领企业金融新趋势? 随着 DDC Enterprise Limited(DDC)正式宣布与…

    2025年12月11日
    000
  • Coinbase、Opyn 和 Onchain Markets:迈向 DeFi 未来的大胆一步

    coinbase战略吸纳opyn核心人才,深化链上市场布局,强化defi实力,展现对加密行业长期发展的坚定信心。 Coinbase、Opyn与链上市场:通向DeFi未来的关键跃进 Coinbase近日引入了Opyn的核心管理团队,此举标志着其在链上交易市场和去中心化金融(DeFi)领域迈出的重要步伐…

    2025年12月11日
    000
  • Worldcoin的疯狂之旅:趋势线、突破与阿尔特曼效应

    worldcoin($wld)近期价格大幅上涨,伴随合作进展与监管审查同步进行,引发了市场广泛关注。我们一起来分析这一轮行情的动因、关键突破点以及未来可能的发展方向。 Worldcoin($WLD)正迎来一波强势拉升!在价格波动加剧、新合作消息频出及监管压力上升的背景下,当前市场动态值得关注。让我们…

    2025年12月11日
    000
  • Tether、USDT与区块链:一场精心策划的撤退与十亿美元的铸币

    tether 战略性地停止支持部分旧区块链上的 usdt,与此同时 tron 上却出现了价值 10 亿美元的 usdt 铸造事件,这标志着稳定币流动性及区块链主导格局正在发生深刻变化。 Tether、USDT 与区块链:一次有序的撤离与十亿美元铸造的背后 在不断演化的加密货币世界中,稳定币扮演着至关…

    2025年12月11日
    000
  • Shytoshi Kusama、SHIB 与 AI 推文:解码未来

    shytoshi kusama 暗示 shiba inu 即将整合人工智能。深度解析“jul-ai”计划、潜在影响及 shib 的回归雄心 Shytoshi Kusama 与 AI 推文:揭示 SHIB 发展新方向 近期,Shytoshi Kusama 在社交媒体平台 X 上发布的内容再度引发热议,…

    2025年12月11日
    000
  • EstateX,Web2首席执行官,代币化成功:房地产行业的新时代

    estatex 在代币发行取得成功后,迎来新任首席执行官 steve craggs,他曾任 re/max 全球负责人,现将引领房地产通证化领域的 web3 创新浪潮。 EstateX 正在引发行业震动!随着前 RE/MAX 领导人 Steve Craggs 接掌帅印,传统地产与 Web3 技术之间的…

    2025年12月11日
    000
  • 币 安官网地址官方入口 Binance交易所正规平台链接

    binance作为全球领先的数字资产交易平台之一,因其交易深度、系统稳定性及多样化的产品受到广泛欢迎。为确保用户能够安全、快捷地访问币安官网,本文整理了官方入口信息、不同版本链接,并提供其他主流交易平台对比,帮助用户做出更优选择。 一、币安官网地址官方入口 官方网站:(全球通用版)中文入口: 安卓A…

    2025年12月11日
    000
  • 加密货币开发公司排名 2025年十大区块链开发服务商评测(附开发成本对比)

    本文将围绕2025年加密货币与区块链开发领域,为您提供一份详尽的服务商评测。我们将通过分析一系列关键评选标准,来梳理当前市场上的顶尖开发公司,并深入探讨影响开发成本的核心因素,帮助您理解如何系统地评估和选择合适的技术合作伙伴。本文将讲解评估公司的具体步骤,并对开发成本进行对比分析。 2025主流加密…

    2025年12月11日
    000
  • 加密货币空投教程|从入门到职业猎人 Discord社区泄露的撸毛时间表

    本文将为您详细阐述如何从零开始参与加密货币空投,并逐步成长为经验丰富的“空投猎人”。文章将首先解决标题中可能存在的认知误区,解释空投的本质及其吸引力。随后,我们将深入探讨参与空投的入门步骤,并介绍一些进阶技巧,帮助您提高效率和成功率。最后,我们将讨论如何有效利用社区资源获取最新的空投机会。 2025…

    2025年12月11日 好文分享
    000
  • NFT到底有什么用?数字藏品值得买吗?NFT小白科普

    nft,全称非同质化代币 (non-fungible token),是一种在区块链上记录数字资产所有权的方式。理解它,可以将其看作是一种独一无二的数字证书,证明你拥有某一件特定的数字物品,这个物品可能是数字艺术、音乐、视频片段、游戏道具,甚至是虚拟世界的土地。与比特币或普通货币不同,每一个nft都是…

    2025年12月11日
    100
  • ​​元宇宙土地VS传统NFT:2025年哪类资产更值得押注?​​

    元宇宙,一个由虚拟世界、增强现实和区块链技术交织而成的全新概念,正以前所未有的速度渗透到我们的生活中。它不仅仅是一个技术趋势,更像是一场数字文明的拓荒,催生出无数前所未有的数字资产。其中,元宇宙土地和传统nft作为两大新兴投资领域,常常被拿来比较。投资者们都在思考,到2025年,这两类资产中,究竟哪…

    2025年12月11日
    100
  • 稳定币怎么保持稳定的_稳定币为什么被叫做稳定币

    一键直达|2025主流加密资产交易所平台 Binance币安 Huobi火币 欧易OKX 稳定币为何被称为稳定币?稳定币是一类特别设计的数字货币,目的在于保持价格的相对稳定,通常锚定某种法定货币,如美元。相比于比特币等波动剧烈的加密资产,稳定币通过多种机制确保其价值不发生大幅波动,因此得名“稳定币”…

    2025年12月11日
    100
  • 2025小白速成班:3天学会数字货币定投策略​​

    数字资产定投适合小白吗?答案是肯定的,其非常适合。1、定投策略通过在固定时间投入固定金额购买数字资产,有效分散市场波动风险,避免一次性投入高点的问题;2、操作简单,无需复杂分析和盯盘,只需设定计划并执行;3、培养投资纪律,克服追涨杀跌的心理弱点;4、历史数据证明其有效性,且可通过时间积累放大收益。对…

    2025年12月11日
    000
  • Lightchain AI:额外奖励轮次热议及主网启动即将到来

    lightchain ai当前正处在奖励轮次阶段,为投资者提供在2025年7月主网上线前最后获取lcai代币的机会。平台至今已募集2110万美元资金,其自主研发的ai虚拟机正在行业内引发高度关注。 去中心化人工智能的发展势头愈发强劲,而Lightchain AI凭借其独特的创新模式正在成为焦点。随着…

    2025年12月11日
    000
  • 贝莱德的 IBIT:像老板一样驾驭比特币流入浪潮

    贝莱德的 ibit etf 成为比特币资金流入的主要接收者,尽管市场存在波动,但仍体现了投资者的坚定信心。意大利联合信贷银行(unicredit)推出的新型投资产品也进一步证明机构投资者正在加快对比特币的采纳。 贝莱德旗下的 IBIT ETF 在比特币市场中表现突出,吸引了大量资金流入,巩固了其领先…

    2025年12月11日
    000

发表回复

登录后才能评论
关注微信