[源码解析] PyTorch 分布式(16) — 使用异步执行实现批处理 RPC

[源码解析] PyTorch 分布式(16) — 使用异步执行实现批处理 RPC

目录

[源码解析] PyTorch 分布式(16) — 使用异步执行实现批处理 RPC0x00 摘要0x01 前言1.1 先决条件1.2 基础知识1.3 代码0x02 启动2.1 总体启动2.2 启动参数服务器0x03 参数服务器0x04 Trainer0x05 对比0xFF 参考0x00 摘要

在前面的文章之中,我们已经学习了PyTorch 分布式的基本模块,接下来我们通过几篇文章来看看如何把这些模块应用到实践之中,顺便把PyTorch分布式逻辑整体梳理一下。本文介绍如何使用异步执行操作来实现批处理 RPC,大家可以学习到PyTorch对参数服务器一个新的实现方式。

本文以IMPLEMENTING BATCH RPC PROCESSING USING ASYNCHRONOUS EXECUTIONS的翻译为基础,加入了自己的理解。

0x01 前言1.1 先决条件

本文的先决条件如下:

PyTorch 分布式概述分布式 RPC 框架入门使用分布式 RPC 框架实现参数服务器RPC 异步执行装饰器

本教程演示了如何使用@rpc.functions.async_execution 装饰器构建批处理 RPC 应用程序,这有助于通过减少被阻塞的 RPC 线程的数量,并且在被调用方整合 CUDA 操作来加快训练速度。这与使用 TorchServer 进行批量推理的想法相同。Batch RPC 有助于将动作整合到较少的 CUDA 操作中,从而摊销开销。

注意:本教程需要 PyTorch v1.6.0 或更高版本。

1.2 基础知识

之前的教程已经展示了使用torch.distributed.rpc构建分布式训练应用程序的步骤,但他们没有详细说明在处理 RPC 请求时被调用方会发生什么。从 PyTorch v1.5 开始,针对每个 RPC 请求,被调用者都会启动一个线程来执行该请求中的函数,该线程会阻塞直到该函数返回。这适用于许多用例,但有一个问题:如果用户函数在 IO 上阻塞,例如使用嵌套的 RPC 调用或信号(例如等待不同的 RPC 请求来解除阻塞),则被调用者上的 RPC 线程将不得不空闲等待,直到 IO 完成或信号(signal)事件发生。因此,RPC 被调用者使用的线程可能会使用比实际需要更多。造成这个问题的原因是RPC把用户函数当成黑盒,对函数中发生的事情知之甚少。为了让用户函数能够让出和释放 RPC 线程,需要向 RPC 系统提供更多的提示。

从 v1.6.0 开始,PyTorch 通过引入两个新概念来解决这个问题:

torch.futures.Future 封装了一个异步执行,同时也支持安装回调函数。@rpc.functions.async_execution 装饰器,它允许应用程序告诉被调用者,本目标函数将返回一个future,并且可以在执行过程中多次暂停和yield。

使用这两个工具,应用程序代码可以将用户函数分解为多个较小的函数,将它们链接在一起作为Future 对象的回调方法,并返回包含最终结果的 Future给调用者。在被调用方,在获取Future对象时,它也会安装后续的 RPC 响应处理作为回调方法,这些回调会在最终结果准备好时被触发。这样,被调用者不再需要阻塞一个线程,只是等待最终返回值准备好就行。 简单的例子请参考@rpc.functions.async_execution的API文档 。

除了减少被调用者的空闲线程数量外,这些工具还使批处理 RPC 处理更容易、更快。本教程演示了如何使用@rpc.functions.async_execution 装饰器构建分布式批量更新参数服务器和批量处理强化学习应用程序 。

注:我们不考虑强化学习的领域,那样会影响我们的思路,牵扯精力

1.3 代码

因为原文主要是强化学习代码讲解,而我们只关注普通分布式批量更新参数服务器,所以需要看原始代码。

代码位于 https://github.com/pytorch/examples/blob/master/distributed/rpc/batch/parameter_server.py。先全部摘录如下:

代码语言:javascript代码运行次数:0运行复制

import osimport threadingfrom datetime import datetimeimport torchimport torch.distributed.rpc as rpcimport torch.multiprocessing as mpimport torch.nn as nnfrom torch import optimimport torchvisionbatch_size = 20image_w = 64image_h = 64num_classes = 30batch_update_size = 5num_batches = 6def timed_log(text):    print(f"{datetime.now().strftime('%H:%M:%S')} {text}")class BatchUpdateParameterServer(object):    def __init__(self, batch_update_size=batch_update_size):        self.model = torchvision.models.resnet50(num_classes=num_classes)        self.lock = threading.Lock()        self.future_model = torch.futures.Future()        self.batch_update_size = batch_update_size        self.curr_update_size = 0        self.optimizer = optim.SGD(self.model.parameters(), lr=0.001, momentum=0.9)        for p in self.model.parameters():            p.grad = torch.zeros_like(p)    def get_model(self):        return self.model    @staticmethod    @rpc.functions.async_execution    def update_and_fetch_model(ps_rref, grads):        self = ps_rref.local_value()        timed_log(f"PS got {self.curr_update_size}/{batch_update_size} updates")        for p, g in zip(self.model.parameters(), grads):            p.grad += g        with self.lock:            self.curr_update_size += 1            fut = self.future_model            if self.curr_update_size >= self.batch_update_size:                for p in self.model.parameters():                    p.grad /= self.batch_update_size                self.curr_update_size = 0                self.optimizer.step()                self.optimizer.zero_grad()                fut.set_result(self.model)                timed_log("PS updated model")                self.future_model = torch.futures.Future()        return futclass Trainer(object):    def __init__(self, ps_rref):        self.ps_rref = ps_rref        self.loss_fn = nn.MSELoss()        self.one_hot_indices = torch.LongTensor(batch_size)                                     .random_(0, num_classes)                                     .view(batch_size, 1)    def get_next_batch(self):        for _ in range(num_batches):            inputs = torch.randn(batch_size, 3, image_w, image_h)            labels = torch.zeros(batch_size, num_classes)                         .scatter_(1, self.one_hot_indices, 1)            yield inputs.cuda(), labels.cuda()    def train(self):        name = rpc.get_worker_info().name        m = self.ps_rref.rpc_sync().get_model().cuda()        for inputs, labels in self.get_next_batch():            timed_log(f"{name} processing one batch")            self.loss_fn(m(inputs), labels).backward()            timed_log(f"{name} reporting grads")            m = rpc.rpc_sync(                self.ps_rref.owner(),                BatchUpdateParameterServer.update_and_fetch_model,                args=(self.ps_rref, [p.grad for p in m.cpu().parameters()]),            ).cuda()            timed_log(f"{name} got updated model")def run_trainer(ps_rref):    trainer = Trainer(ps_rref)    trainer.train()def run_ps(trainers):    timed_log("Start training")    ps_rref = rpc.RRef(BatchUpdateParameterServer())    futs = []    for trainer in trainers:        futs.append(            rpc.rpc_async(trainer, run_trainer, args=(ps_rref,))        )    torch.futures.wait_all(futs)    timed_log("Finish training")def run(rank, world_size):    os.environ['MASTER_ADDR'] = 'localhost'    os.environ['MASTER_PORT'] = '29500'    options=rpc.TensorPipeRpcBackendOptions(        num_worker_threads=16,        rpc_timeout=0  # infinite timeout     )    if rank != 0:        rpc.init_rpc(            f"trainer{rank}",            rank=rank,            world_size=world_size,            rpc_backend_options=options        )        # trainer passively waiting for ps to kick off training iterations    else:        rpc.init_rpc(            "ps",            rank=rank,            world_size=world_size,            rpc_backend_options=options        )        run_ps([f"trainer{r}" for r in range(1, world_size)])    # block until all rpcs finish    rpc.shutdown()if __name__=="__main__":    world_size = batch_update_size + 1    mp.spawn(run, args=(world_size, ), nprocs=world_size, join=True)

0x02 启动

我们首先看看如何启动。

2.1 总体启动

我们假设有一个master(rank 0),一个worker。Master 之上运行的是参数服务器,worker 之上是训练代码。

代码语言:javascript代码运行次数:0运行复制

def run(rank, world_size):    os.environ['MASTER_ADDR'] = 'localhost'    os.environ['MASTER_PORT'] = '29500'    options=rpc.TensorPipeRpcBackendOptions(        num_worker_threads=16,        rpc_timeout=0  # infinite timeout     )    if rank != 0:        rpc.init_rpc( # 训练代码            f"trainer{rank}",            rank=rank,            world_size=world_size,            rpc_backend_options=options        )        # trainer passively waiting for ps to kick off training iterations    else:        rpc.init_rpc( # 参数服务器            "ps",             rank=rank,            world_size=world_size,            rpc_backend_options=options        )        run_ps([f"trainer{r}" for r in range(1, world_size)])    # block until all rpcs finish    rpc.shutdown()if __name__=="__main__":    world_size = batch_update_size + 1    mp.spawn(run, args=(world_size, ), nprocs=world_size, join=True)

逻辑如下图:

代码语言:javascript代码运行次数:0运行复制

             torch.multiprocessing.spawn                        +                        |                        |           +------------+-------------------------------------------------           |                                                             |           |                                                             |           v                                                             v+----------+----------------------------------------------+ +------------+----------------+| "ps"                                           rank = 0 | | f"trainer{rank}"   rank = 1 ||                                                         | |                             ||                                                         | |                             ||                     rpc.init_rpc                        | |         rpc.init_rpc        ||                                                         | |                             ||                                                         | |                             ||  run_ps([f"trainer{r}" for r in range(1, world_size)])  | |                             ||                                                         | |                             ||                                                         | |                             |+---------------------------------------------------------+ +-----------------------------+

2.2 启动参数服务器

run_ps 启动了参数服务器和trainer。注意,这里在参数服务器之中启动 trainer,即,master 不仅仅有一个参数服务器,还负责通过 rpc 来驱动trainer上的训练循环。

代码小浣熊 代码小浣熊

代码小浣熊是基于商汤大语言模型的软件智能研发助手,覆盖软件需求分析、架构设计、代码编写、软件测试等环节

代码小浣熊 51 查看详情 代码小浣熊 代码语言:javascript代码运行次数:0运行复制

def run_ps(trainers):    timed_log("Start training")    ps_rref = rpc.RRef(BatchUpdateParameterServer())    futs = []    for trainer in trainers: # trainer 是字符串,比如"trainer1"        futs.append(            rpc.rpc_async(trainer, run_trainer, args=(ps_rref,)) # 运行run_trainer        )    torch.futures.wait_all(futs)    timed_log("Finish training")    def run_trainer(ps_rref):    trainer = Trainer(ps_rref)    trainer.train() # 调用 Trainer 的方法   

具体拓展如下:

这里没有给出参数服务器和trainer的逻辑,我们会在后续分析之后陆续给出。trainer 也只给出了一个。

[源码解析] PyTorch 分布式(16) --- 使用异步执行实现批处理 RPC

0x03 参数服务器

上面图中没有给出具体参数服务器代码,我们接下来就分析一下。

这里考虑具有一个参数服务器 (PS) 和多个trainer的同步训练应用程序。在这个应用中,PS 持有参数并等待所有训练器报告梯度。在每次迭代中,它等待直到从所有训练器接收梯度,然后一次性更新所有参数。

下面的代码显示了 PS 类的实现。

PS初始化时候生成了常规SGB优化器,不是分布式优化器,而且优化器是在PS之上update_and_fetch_model方法被 @rpc.functions.async_execution所装饰,将由trainer调用。每次调用都会返回一个Future对象,该对象将被用来处理更新后的模型。大多数训练器发起的调用只是累积梯度到 .grad成员变量 ,然后立即返回,并在 PS 上产生 RPC 线程。最后到达的训练器将触发优化器步骤并消耗所有先前上报的梯度。然后它使用更新后的模型来设置future_model,这是依靠通过Future对象来依次通知来自其他训练者的先前请求,并将更新后的模型发送给所有训练者。

具体代码如下:

代码语言:javascript代码运行次数:0运行复制

batch_size = 20image_w = 64image_h = 64num_classes = 30batch_update_size = 5num_batches = 6def timed_log(text):    print(f"{datetime.now().strftime('%H:%M:%S')} {text}")class BatchUpdateParameterServer(object):    def __init__(self, batch_update_size=batch_update_size):        self.model = torchvision.models.resnet50(num_classes=num_classes)        self.lock = threading.Lock()        self.future_model = torch.futures.Future()        self.batch_update_size = batch_update_size        self.curr_update_size = 0        # 重点:这里是常规SGB优化器,不是分布式优化器        self.optimizer = optim.SGD(self.model.parameters(), lr=0.001, momentum=0.9)        for p in self.model.parameters():            p.grad = torch.zeros_like(p)    def get_model(self):        return self.model    @staticmethod    @rpc.functions.async_execution # trainer会直接调用    def update_and_fetch_model(ps_rref, grads):        self = ps_rref.local_value()        timed_log(f"PS got {self.curr_update_size}/{batch_update_size} updates")        for p, g in zip(self.model.parameters(), grads): # 得到            p.grad += g # 累积梯度        with self.lock:            self.curr_update_size += 1            fut = self.future_model            if self.curr_update_size >= self.batch_update_size:                # 最后到达的训练器将触发优化器步骤并消耗所有先前上报的梯度。                for p in self.model.parameters():                    p.grad /= self.batch_update_size                self.curr_update_size = 0                self.optimizer.step() # 更新模型                self.optimizer.zero_grad()                fut.set_result(self.model) # 将更新后的模型发送给所有训练者                timed_log("PS updated model")                self.future_model = torch.futures.Future() # 使用更新后的模型来设置future_model        return fut # 该对象将被用来处理更新后的模型

逻辑拓展如下,这里省略了参数服务器生成trainer的步骤:

手机如下:

[源码解析] PyTorch 分布式(16) --- 使用异步执行实现批处理 RPC

0x04 Trainer

对于训练器,它们都使用来自 PS 的相同参数集进行初始化。在每次迭代中执行如下操作:

每个训练器首先运行前向和后向传播以在本地生成梯度。然后,每个训练器使用 RPC 向 PS 报告其梯度,并通过同一 RPC 请求的返回值取回更新后的参数。

在训练器的实现中,目标函数是否被标记 @rpc.functions.async_execution是没有区别的。训练器只需使用 rpc_sync 调用update_and_fetch_model,其将阻塞训练器,直到返回更新的模型。

可以看到,参数服务器存储模型,模型可以返回到trainer。

代码语言:javascript代码运行次数:0运行复制

class Trainer(object):    def __init__(self, ps_rref):        self.ps_rref = ps_rref        self.loss_fn = nn.MSELoss()        self.one_hot_indices = torch.LongTensor(batch_size)                                     .random_(0, num_classes)                                     .view(batch_size, 1)    def get_next_batch(self):        for _ in range(num_batches):            inputs = torch.randn(batch_size, 3, image_w, image_h)            labels = torch.zeros(batch_size, num_classes)                         .scatter_(1, self.one_hot_indices, 1)            yield inputs.cuda(), labels.cuda()    def train(self):        name = rpc.get_worker_info().name        # 从参数服务器获取模型        m = self.ps_rref.rpc_sync().get_model().cuda()        for inputs, labels in self.get_next_batch():            timed_log(f"{name} processing one batch")            # 利用模型来前向传播/反向传播            self.loss_fn(m(inputs), labels).backward()            timed_log(f"{name} reporting grads")            # 调用参数服务器的函数来提交梯度            m = rpc.rpc_sync( # rpc_sync 操作完成之后,m就是最新模型了                self.ps_rref.owner(),                BatchUpdateParameterServer.update_and_fetch_model,                args=(self.ps_rref, [p.grad for p in m.cpu().parameters()]),            ).cuda()            timed_log(f"{name} got updated model")

拓展逻辑如下:

参数服务器的run_trainer 方法会直接调用 trainer.train() 方法来执行一步step。train 方法之中,会调用 self.ps_rref.rpc_sync().get_model().cuda() 从参数服务器获得模型,放到本地设备之上(图上是双向箭头,表示这是一个get/return动作,需要把模型存储在worker本地)。调用 self.loss_fn(m(inputs), labels).backward() 来进行前向传播/反向传播。调用参数服务器的 update_and_fetch_model 函数来提交梯度,这里使用了异步RPC。参数服务器的 update_and_fetch_model 之中,进行梯度累积,模型更新是通过PS之上常规SGD优化器完成,最后调用 fut.set_result(self.model) 来发布新模型给trainer。在trainer 之中,就是 m = rpc.rpc_sync(…) 这个赋值之后,m 是最新模型了。

[源码解析] PyTorch 分布式(16) --- 使用异步执行实现批处理 RPC

0x05 对比

前文结尾,我们对比参数服务器的经典实现 ps-lite 和 前两篇实现的参数服务器。

ps-lite 是类似传统服务器实现,有自己主动的业务循环,可以响应用户的显式请求,也有自己明确的逻辑,本地也有自己的KV存储。PyTorch 前两篇官方文档(本系列前两篇文章)之中,参数服务器则是另外一种思路: 参数服务器上没有主动的循环,没有KV存储,没有服务器逻辑,而是可以直接存储业务模型,ps 会把业务模型需要优化的参数返回给trainer 之上的 DistributedOptimizer。业务驱动由trainer完成:train loop代码在trainer 之中,DistributedOptimizer 在trainer 之中,DistributedOptimizer 负责进行分布式优化。本文又与上面不同,看起来更像是ps-lite,但是又糅合了RPC实现: ps进程会启动trainer的训练循环。每个迭代之中,trainer 会从参数服务器获取最新模型,前向操作/后向传播都在trainer 完成。trainer 会通过异步RPC把梯度提交给参数服务器。模型更新是通过PS之上常规SGD优化器完成。模型更新之后通过异步RPC把模型再次分发给trainer。

不得不说,官方这几篇文章快把各种实现方式玩出花来了,大家可以依据自己业务特点来参考实现。

0xFF 参考

IMPLEMENTING BATCH RPC PROCESSING USING ASYNCHRONOUS EXECUTIONS

以上就是[源码解析] PyTorch 分布式(16) — 使用异步执行实现批处理 RPC的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/480479.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月8日 11:09:43
下一篇 2025年11月8日 11:11:47

相关推荐

  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000
  • 使用CSS mask属性指定图片URL时,为什么浏览器无法加载图片?

    css mask属性未能加载图片的解决方法 使用css mask属性指定图片url时,如示例中所示: mask: url(“https://api.iconify.design/mdi:apple-icloud.svg”) center / contain no-repeat; 但是,在网络面板中却…

    2025年12月24日
    000
  • 如何用CSS Paint API为网页元素添加时尚的斑马线边框?

    为元素添加时尚的斑马线边框 在网页设计中,有时我们需要添加时尚的边框来提升元素的视觉效果。其中,斑马线边框是一种既醒目又别致的设计元素。 实现斜向斑马线边框 要实现斜向斑马线间隔圆环,我们可以使用css paint api。该api提供了强大的功能,可以让我们在元素上绘制复杂的图形。 立即学习“前端…

    2025年12月24日
    000
  • 图片如何不撑高父容器?

    如何让图片不撑高父容器? 当父容器包含不同高度的子元素时,父容器的高度通常会被最高元素撑开。如果你希望父容器的高度由文本内容撑开,避免图片对其产生影响,可以通过以下 css 解决方法: 绝对定位元素: .child-image { position: absolute; top: 0; left: …

    2025年12月24日
    000
  • 为什么自定义样式表在 Safari 中访问百度页面时无法生效?

    自定义样式表在 safari 中失效的原因 用户尝试在 safari 偏好设置中添加自定义样式表,代码如下: body { background-image: url(“/users/luxury/desktop/wallhaven-o5762l.png”) !important;} 测试后发现,在…

    2025年12月24日
    000
  • CSS 帮助

    我正在尝试将文本附加到棕色框的左侧。我不能。我不知道代码有什么问题。请帮助我。 css .hero { position: relative; bottom: 80px; display: flex; justify-content: left; align-items: start; color:…

    2025年12月24日 好文分享
    200
  • HTML、CSS 和 JavaScript 中的简单侧边栏菜单

    构建一个简单的侧边栏菜单是一个很好的主意,它可以为您的网站添加有价值的功能和令人惊叹的外观。 侧边栏菜单对于客户找到不同项目的方式很有用,而不会让他们觉得自己有太多选择,从而创造了简单性和秩序。 今天,我将分享一个简单的 HTML、CSS 和 JavaScript 源代码来创建一个简单的侧边栏菜单。…

    2025年12月24日
    200
  • 前端代码辅助工具:如何选择最可靠的AI工具?

    前端代码辅助工具:可靠性探讨 对于前端工程师来说,在HTML、CSS和JavaScript开发中借助AI工具是司空见惯的事情。然而,并非所有工具都能提供同等的可靠性。 个性化需求 关于哪个AI工具最可靠,这个问题没有一刀切的答案。每个人的使用习惯和项目需求各不相同。以下是一些影响选择的重要因素: 立…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信