如何在MXNet中训练AI大模型?高效构建深度学习的详细步骤

答案是优化数据管道、采用分布式训练、应用内存优化技术、精细调参。具体包括:使用RecordIO格式和DataLoader多进程预取提升数据加载效率;通过KVStore选择device或dist_sync/dist_async实现单机或多机分布式训练;利用混合精度训练、梯度累积和模型符号化降低显存占用;结合学习率预热、AdamW优化器等策略保障大模型收敛稳定性,从而在MXNet中高效训练AI大模型。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如何在mxnet中训练ai大模型?高效构建深度学习的详细步骤

在MXNet中训练AI大模型,说白了,就是一场关于资源管理、效率优化和策略选择的战役。它不单单是写几行代码那么简单,更多的是一种系统性的思考,如何将海量数据、复杂模型与有限的计算资源高效结合。核心在于精妙的数据管道构建、灵活的分布式训练部署、极致的内存优化以及严谨的超参数调优。这就像是在指挥一场大型交响乐,每个乐器(组件)都要在恰当的时机以最佳状态奏响,才能最终呈现出宏大而精准的乐章。

解决方案

要高效地在MXNet中构建并训练AI大模型,我们得从几个关键维度入手,这不仅仅是技术栈的选择,更是一种思维模式的转变。

首先,数据管道的优化是基石。大模型意味着大数据,如果数据加载效率低下,再强的GPU也会“饿死”。MXNet提供了

RecordIO

这样的高效数据格式,能将大量小文件打包成几个大文件,显著减少I/O开销。配合

gluon.data.DataLoader

的多进程(

num_workers

)加载,以及预取(

prefetch

),可以确保数据流源源不断地供给模型。我个人经验是,很多时候模型训练慢,瓶颈并不在计算,而是在数据。

接着,分布式训练是必然选择。单卡性能再强,也扛不住千亿、万亿参数的模型。MXNet的

KVStore

(Key-Value Store)机制是其分布式训练的核心。它负责在多个设备(GPU)或多台机器之间同步模型参数。你可以选择不同的

KVStore

类型,比如

device

用于单机多卡,

dist_sync

dist_async

用于多机分布式。这里的选择需要权衡通信开销和同步策略,

dist_sync

能保证模型一致性但通信量大,

dist_async

虽然通信量小但可能引入模型参数的滞后更新。我的做法是,初期会倾向于

dist_sync

来保证模型收敛的稳定性,一旦确认模型行为正常,再尝试

dist_async

来提升速度,但需要额外关注收敛性。

然后,内存优化是艺术。大模型对显存的需求是天文数字,即使是顶级的GPU也可能捉襟见肘。MXNet支持混合精度训练(Mixed Precision Training),通过

mx.amp

模块,将大部分计算从FP32切换到FP16,能直接将显存占用减半,同时加速计算。这简直是救命稻草。此外,梯度累积(Gradient Accumulation)也是一个非常实用的技巧,它允许你用较小的批次进行多次前向和反向传播,累积梯度后再进行一次参数更新,从而模拟出更大的有效批次大小,缓解显存压力。当然,这会增加训练时间,但总比OOM(Out Of Memory)要好。

最后,超参数调优和稳定性。大模型的训练往往对学习率、优化器选择、权重衰减等超参数非常敏感。一个常见的策略是使用学习率预热(Warmup)和余弦退火(Cosine Annealing)等调度器。AdamW通常是我的首选优化器,因为它在处理权重衰减方面比经典的Adam更有效,这对于防止大模型过拟合至关重要。训练过程中,定期的模型检查点保存和断点续训能力是必须的,毕竟大模型的训练动辄数天甚至数周,任何意外都可能导致前功尽弃。

如何在MXNet中训练AI大模型?高效构建深度学习的详细步骤

如何有效地处理和加载海量训练数据以支持MXNet大模型训练?

处理和加载海量训练数据,这在大模型训练中是个实打实的挑战,远不止“把数据读进来”那么简单。我经常看到一些团队在模型设计上花了大把功夫,却在数据加载上栽了跟头,导致GPU利用率奇低,训练速度慢得让人抓狂。

在MXNet中,我的经验是首先要考虑数据格式的优化。原始数据通常是散落在无数小文件中的图片、文本片段或传感器读数,直接读取这些文件会产生巨大的I/O开销。MXNet的

RecordIO

格式就是为解决这个问题而生的。它能将这些小文件序列化并打包成几个大的

.rec

文件。这样做的好处显而易见:磁盘寻道次数大幅减少,顺序读取效率极高,而且

.rec

文件天然支持分片(sharding),非常适合分布式训练。你可以用

im2rec.py

工具(或者自己写脚本)将图像数据集转换成

RecordIO

格式,对于文本或其他结构化数据,也可以自定义序列化逻辑。

接着,高效的数据迭代器是关键。MXNet的

gluon.data.DataLoader

是构建数据管道的核心组件。它提供了

num_workers

参数,可以启动多个子进程并行加载和预处理数据。这能有效利用多核CPU资源,确保数据在GPU空闲前就已经准备就绪。但这里有个小坑:

num_workers

并非越大越好,它会消耗额外的CPU和内存。你需要根据你的CPU核心数和内存大小进行实验,找到一个平衡点,避免CPU成为新的瓶颈。

此外,数据预处理的策略也很重要。对于大模型训练,我们通常会进行各种数据增强(Data Augmentation),比如随机裁剪、翻转、色彩抖动等。如果这些操作都在CPU上同步进行,很容易拖慢整个训练流程。MXNet的

gluon.data.vision.transforms

模块提供了GPU友好的转换操作,或者你可以将部分计算密集型的预处理(例如复杂的图像变换)提前到数据生成阶段,或者利用GPU的计算能力进行异步处理。

最后,内存缓存和预取也是提升效率的手段。如果你的数据集足够小,可以考虑将其完全加载到内存中。但对于大模型,这通常不现实。在这种情况下,

DataLoader

prefetch

机制就显得尤为重要,它会在当前批次数据被使用时,提前加载下一个批次的数据。这就像一个智能的缓冲区,保证数据流的连续性。

# 伪代码示例:使用RecordIO和DataLoaderimport mxnet as mxfrom mxnet import gluon, ndfrom mxnet.gluon.data import DataLoaderfrom mxnet.gluon.data.vision import transforms# 假设你已经将数据转换为RecordIO格式# train.rec, train.idxrec_path = 'path/to/your/train.rec'idx_path = 'path/to/your/train.idx'# 定义数据转换transform_train = transforms.Compose([    transforms.RandomResizedCrop(224),    transforms.RandomFlipLeftRight(),    transforms.ToTensor(),    transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])])# 创建RecordFileDatasettrain_dataset = gluon.data.vision.ImageRecordDataset(rec_path, idx_path).transform_first(transform_train)# 创建DataLoader,设置num_workers和batch_size# num_workers的选择要根据CPU核心数和内存情况来定train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True, num_workers=8, last_batch='discard')# 迭代数据for i, (data, label) in enumerate(train_loader):    # data和label已经准备好,可以直接喂给模型    # print(f"Batch {i}: data shape {data.shape}, label shape {label.shape}")    pass # 这里进行模型的前向和反向传播

如何在MXNet中训练AI大模型?高效构建深度学习的详细步骤

在MXNet中,如何选择并配置分布式训练策略以最大化硬件利用率?

分布式训练,这可不是一个可以随意选择的选项,对于大模型来说,它几乎是唯一的出路。但在MXNet里,分布式策略的选择和配置,需要你对你的硬件环境、网络状况以及模型特性有清晰的认识,才能真正最大化硬件利用率,而不是仅仅“跑起来”。

MXNet的分布式训练核心是

KVStore

(Key-Value Store)机制,它本质上是一个参数服务器,负责在各个计算设备(GPU)之间同步模型的参数和梯度。理解不同的

KVStore

类型是关键:

local

: 这是默认设置,参数和梯度都保留在当前设备上。适用于单GPU训练。

device

: 用于单机多卡训练。它会在每块GPU上复制一份模型,然后通过共享内存或PCIe总线进行参数和梯度的同步。这是最常用的单机多卡策略,效率通常很高,因为通信开销相对较低。

dist_sync

: 这是多机多卡训练的同步策略。所有工作节点(每个节点可能有多张GPU)都会在计算完梯度后,将梯度发送到参数服务器,参数服务器聚合所有梯度并更新模型参数,然后将新参数广播回所有工作节点。它的优点是保证了模型参数的强一致性,收敛行为和单机训练类似。但缺点是通信开销大,且整个训练过程会被最慢的节点拖慢(“木桶效应”)。对于高速网络环境(如InfiniBand)和对模型收敛稳定性要求高的场景,我会优先考虑它。

dist_async

: 同样用于多机多卡,但采用异步更新策略。每个工作节点计算完梯度后,会立即将其发送给参数服务器并继续自己的计算,无需等待其他节点的梯度或参数更新。参数服务器收到梯度后会立即更新模型参数,并可能将最新的参数发送给请求它的工作节点。优点是通信开销小,训练速度可能更快,对网络带宽要求相对宽松。缺点是模型参数可能存在滞后,导致收敛不稳定,甚至发散。这需要更精细的学习率调度和优化器选择。在一些对模型精度要求不是极致,但对训练速度有高要求的场景下,可以尝试。

如何配置和选择?

单机多卡:几乎总是选择

device

KVStore。这是最直接也最有效的方式。

# 伪代码:单机多卡配置ctx = [mx.gpu(i) for i in range(num_gpus)] # 获取所有GPU上下文net.initialize(mx.init.Xavier(), ctx=ctx)trainer = gluon.Trainer(net.collect_params(), 'adam', {'learning_rate': 0.001}, kvstore='device')

多机多卡网络环境:如果你的机器之间有高速互联(如100Gbps以太网或InfiniBand),且对模型收敛稳定性有高要求,

dist_sync

是首选。模型大小与批次大小:如果模型非常大,每次梯度传输的数据量就大,

dist_sync

的通信开销会更显著。此时可以尝试增大每个GPU的批次大小,减少更新频率,或者考虑

dist_async

部署:需要启动MXNet的参数服务器(PS)和工作节点(Worker)。通常通过

DMLC_PS_ROOT_URI

,

DMLC_PS_ROOT_PORT

,

DMLC_ROLE

,

DMLC_NUM_WORKER

,

DMLC_NUM_SERVER

等环境变量来配置。

我个人的经验是,在选择

dist_sync

时,一定要密切监控网络带宽使用情况。如果网络利用率不高,或者GPU经常等待数据,那很可能通信是瓶颈。此时可以尝试:

增大每个GPU的本地批次大小:这会减少梯度更新的频率,从而减少通信次数。梯度压缩:虽然MXNet原生KVStore没有提供像Horovod那样的直接梯度压缩功能,但你可以在发送梯度前手动对其进行稀疏化或量化,但这会增加代码复杂性。检查网络配置:确保所有节点之间的网络连接是最佳的,没有瓶颈。

在尝试

dist_async

时,务必关注训练曲线,特别是损失函数和评估指标的波动。如果波动过大或无法收敛,可能需要调整学习率,或者切换回

dist_sync

总之,分布式训练不是一劳永逸的解决方案,它需要你像一名系统工程师一样,去诊断和优化整个计算集群的性能。

如何在MXNet中训练AI大模型?高效构建深度学习的详细步骤

除了分布式训练,MXNet还提供了哪些内存优化技术来应对大模型对显存的巨大需求?

分布式训练确实能将模型分摊到多个GPU上,但即便如此,单个GPU上的显存压力依然巨大,尤其是当模型层数深、隐藏维度高时。MXNet在这个方面也提供了一些非常实用的内存优化技术,这些技巧能帮助我们榨干每一MB显存,让那些显存杀手级的大模型也能跑起来。

首先,也是最直接有效的,是混合精度训练(Mixed Precision Training)。这是我处理大模型显存不足时最先考虑的方案。MXNet通过

mx.amp

模块提供了对NVIDIA Tensor Core的支持,允许我们将大部分计算(尤其是矩阵乘法和卷积)从FP32(单精度浮点数)切换到FP16(半精度浮点数)。FP16的优点显而易见:它能将模型参数、激活值和梯度的显存占用直接减半,同时还能加速计算(因为Tensor Core对FP16有专门优化)。

启用混合精度通常非常简单:

# 伪代码:启用MXNet的混合精度训练import mxnet as mxfrom mxnet import gluon, amp# ... 定义你的模型 net 和 Trainer ...# 在Trainer初始化前,启用混合精度amp.init()# 初始化Trainer时,指定kvstore,并确保上下文是GPUtrainer = gluon.Trainer(net.collect_params(), 'adam', {'learning_rate': 0.001}, kvstore='device')# 在训练循环中,使用amp.autocast上下文管理器for epoch in range(num_epochs):    for i, (data, label) in enumerate(train_loader):        with amp.autocast(): # 自动将支持的op转换为FP16            with mx.autograd.record():                output = net(data.as_in_context(ctx[0])) # 假设单GPU或数据并行                loss = loss_fn(output, label.as_in_context(ctx[0]))            amp.scale_loss(loss, trainer).backward() # 自动进行梯度缩放        trainer.step(data.shape[0])

这里需要注意梯度缩放(Gradient Scaling),因为FP16的数值范围较小,直接计算梯度可能会导致下溢(underflow)。

mx.amp

会自动处理这个,它会在反向传播前将损失函数乘以一个大的缩放因子,完成后再除回来,以保持梯度的精度。

其次,梯度累积(Gradient Accumulation)是一个非常巧妙的技巧,它能让你在不增加实际显存占用的情况下,模拟出更大的批次大小。原理很简单:不是每次前向-反向传播后就更新参数,而是累积多次小批次的梯度,等到累积到足够数量(相当于一个大批次)后,再进行一次参数更新。

# 伪代码:梯度累积accum_steps = 4 # 累积4个小批次的梯度trainer.zero_grad() # 在每个累积周期开始前清零梯度for i, (data, label) in enumerate(train_loader):    with mx.autograd.record():        output = net(data.as_in_context(ctx[0]))        loss = loss_fn(output, label.as_in_context(ctx[0]))    loss.backward()    if (i + 1) % accum_steps == 0: # 每累积accum_steps次后更新        trainer.step(data.shape[0] * accum_steps) # 步进时要乘以累积的批次大小        trainer.zero_grad() # 清零梯度准备下一次累积

这虽然会增加训练时间(因为参数更新频率降低了),但对于那些因批次大小过小而无法收敛,或者显存实在吃不消大批次的情况,梯度累积是救命稻草。

再者,模型符号化(Hybridization)也是MXNet的一个特色。Gluon接口虽然灵活,但在运行时会产生动态图。通过

net.hybridize()

,可以将Gluon模型转换为静态符号图。符号图在执行前会被MXNet的后端优化器进行图优化,例如操作符融合(Operator Fusion),即将多个小的计算操作合并成一个大的操作,减少中间结果的存储和计算开销,从而可能降低显存占用并提高运行效率。

最后,细致的批次大小管理不必要的中间变量清理也是老生常谈但非常有效的方法。在模型开发初期,我会从非常小的批次大小开始测试,逐渐增大,直到遇到OOM。同时,确保代码中没有创建大量不必要的NDArray对象,或者在不再需要时及时释放它们(虽然Python的垃圾回收机制通常会处理,但显存管理有时需要更直接的干预)。

这些内存优化技术,往往不是单一使用,而是组合拳。在实际训练大模型时,我通常会先启用混合精度,然后根据显存情况调整批次大小,如果还不够,再考虑梯度累积。这就像是玩一场资源管理的游戏,每一步优化都能让你离成功更近一步。

以上就是如何在MXNet中训练AI大模型?高效构建深度学习的详细步骤的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/25088.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月2日 10:09:30
下一篇 2025年11月2日 10:32:56

相关推荐

  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • 旋转长方形后,如何计算其相对于画布左上角的轴距?

    绘制长方形并旋转,计算旋转后轴距 在拥有 1920×1080 画布中,放置一个宽高为 200×20 的长方形,其坐标位于 (100, 100)。当以任意角度旋转长方形时,如何计算它相对于画布左上角的 x、y 轴距? 以下代码提供了一个计算旋转后长方形轴距的解决方案: const x = 200;co…

    2025年12月24日
    000
  • 旋转长方形后,如何计算它与画布左上角的xy轴距?

    旋转后长方形在画布上的xy轴距计算 在画布中添加一个长方形,并将其旋转任意角度,如何计算旋转后的长方形与画布左上角之间的xy轴距? 问题分解: 要计算旋转后长方形的xy轴距,需要考虑旋转对长方形宽高和位置的影响。首先,旋转会改变长方形的长和宽,其次,旋转会改变长方形的中心点位置。 求解方法: 计算旋…

    2025年12月24日
    000
  • 旋转长方形后如何计算其在画布上的轴距?

    旋转长方形后计算轴距 假设长方形的宽、高分别为 200 和 20,初始坐标为 (100, 100),我们将它旋转一个任意角度。根据旋转矩阵公式,旋转后的新坐标 (x’, y’) 可以通过以下公式计算: x’ = x * cos(θ) – y * sin(θ)y’ = x * …

    2025年12月24日
    000
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 如何计算旋转后长方形在画布上的轴距?

    旋转后长方形与画布轴距计算 在给定的画布中,有一个长方形,在随机旋转一定角度后,如何计算其在画布上的轴距,即距离左上角的距离? 以下提供一种计算长方形相对于画布左上角的新轴距的方法: const x = 200; // 初始 x 坐标const y = 90; // 初始 y 坐标const w =…

    2025年12月24日
    200
  • CSS元素设置em和transition后,为何载入页面无放大效果?

    css元素设置em和transition后,为何载入无放大效果 很多开发者在设置了em和transition后,却发现元素载入页面时无放大效果。本文将解答这一问题。 原问题:在视频演示中,将元素设置如下,载入页面会有放大效果。然而,在个人尝试中,并未出现该效果。这是由于macos和windows系统…

    2025年12月24日
    200
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 如何计算旋转后的长方形在画布上的 XY 轴距?

    旋转长方形后计算其画布xy轴距 在创建的画布上添加了一个长方形,并提供其宽、高和初始坐标。为了视觉化旋转效果,还提供了一些旋转特定角度后的图片。 问题是如何计算任意角度旋转后,这个长方形的xy轴距。这涉及到使用三角学来计算旋转后的坐标。 以下是一个 javascript 代码示例,用于计算旋转后长方…

    2025年12月24日
    000
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信