【强化】Advantage Actor-Critic (A2C):强化学习之摆车

这段内容基于Paddle框架实现了Advantage Actor-Critic(A2C)算法,以CartPole-v0环境为例,涵盖环境配置、状态与动作空间获取,定义Actor和Critic网络,计算TD目标,还展示了含详细输出的训练过程,包括状态处理、动作采样、奖励收集及参数更新等步骤。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

【强化】advantage actor-critic (a2c):强化学习之摆车 - 创想鸟

Advantage Actor-Critci

Advantage Actor-Critci是带基线的策略梯度方法,其中Advantage代表的是优势函数。可以把Advantage Actor-Critci看做Actor-Critci的改进版本。二者区别如下:

Actor-Critci

【强化】Advantage Actor-Critic (A2C):强化学习之摆车 - 创想鸟        

Advantage Actor-Critci

【强化】Advantage Actor-Critic (A2C):强化学习之摆车 - 创想鸟        

1.配置环境,导入需要的包

In [1]

import gymimport osimport sysfrom itertools import countimport paddlefrom paddle.distribution import Categorical

   In [2]

print('python version',sys.version)print('paddle version',paddle.__version__)

       

python version 3.7.4 (default, Aug 13 2019, 20:35:49) [GCC 7.3.0]paddle version 2.2.1

       

2.搭建Advantage Actor-Critci 网络

【强化】Advantage Actor-Critic (A2C):强化学习之摆车 - 创想鸟        

2.1 获取当前运行设备(CPU or GPU)

In [3]

device=paddle.get_device()print(device)

       

cpu

       

2.2 加载摆车环境

In [4]

env=gym.make('CartPole-v0')print(env)

       

<TimeLimit<CartPoleEnv>>

       

2.3 获取状态空间大小与动作空间大小

关于 observation_space 与 action_space 代表的到底是什么内容,可以参考CSDN博文:https://wuxian.blog.csdn.net/article/details/89576003

目前我的理解:

observation_space 代表的是观测到的状态,也就是【摆车在轨道上的位置,杆子与竖直方向的夹角,小车速度,角度变化率】action_space 代表的是动作空间的大小,【左移,右移】In [5]

state_=env.observation_spaceprint(state_)state_size=state_.shape[0]print(state_size)action_=env.action_spaceprint(action_)action_size=action_.nprint(action_size)

       

Box(4,)4Discrete(2)2

       

2.4 定义学习率

In [6]

lr=0.001

   

2.5 定义Actor网络(实际定义的网络并没有严格按照图示,多了一个抽样)

【强化】Advantage Actor-Critic (A2C):强化学习之摆车 - 创想鸟        

截图来自 王树森 老师的书籍《深度强化学习》,Github直达链接:https://github.com/wangshusen/DRL

立即进入“豆包AI人工智官网入口”;

立即学习“豆包AI人工智能在线问答入口”;

**如果s是张量,那么使用卷积网络捕获特征向量;如果s是向量,那么使用全连接网络。**这句话摘抄于上述书籍中,个人认为其所述张量应为:大于1维的张量;注意区分标量,向量,矩阵,张量,个人理解如下:

标量是仅包含一个数字,也是0维的张量向量是数字组成的数组,也是1维的张量矩阵是向量组成的数组,也是2维的张量张量是深度学习的主要数据载体。标量,向量,矩阵是张量的一些特殊情况的常用名。

在(初中)高中数学中我们也学过向量,比如计算投影,这时向量是有方向的,但是在深度学习中,我理解的方向与此是有点区别的,即不用考虑方向。

In [7]

class Actor(paddle.nn.Layer):    def __init__(self,state_size,action_size):        super(Actor,self).__init__()        self.state_size=state_size        self.action_size=action_size        self.l1=paddle.nn.Linear(self.state_size,128)        self.l2=paddle.nn.Linear(128,256)        self.l3=paddle.nn.Linear(256,self.action_size)        self.relu=paddle.nn.ReLU()                def forward(self,state):        out=self.relu(self.l1(state))        out=self.relu(self.l2(out))        out=self.l3(out)        # 根据动作的概率(加和为1),生成一个类别分布.paddle框架目前提供了三种分类函数【类别分类,正态分布,均匀分布】        distribution=Categorical(paddle.nn.functional.softmax(out,axis=-1))        return distribution

   

2.6 定义Critic网络

【强化】Advantage Actor-Critic (A2C):强化学习之摆车 - 创想鸟        

In [8]

class Critic(paddle.nn.Layer):    def __init__(self,state_size,action_size):        super(Critic,self).__init__()        self.state_size=state_size        self.action_size=action_size        self.l1=paddle.nn.Linear(self.state_size,128)        self.l2=paddle.nn.Linear(128,256)        self.l3=paddle.nn.Linear(256,1)        self.relu=paddle.nn.ReLU()    def forward(self,state):                # paddle.nn.ReLU() 与paddle.nn.functional.relu()的区别是:前者是面向对象,是class,在类的fordward中调用了后者;后者是面向过程,是def。        #out=paddle.nn.functional.relu(self.l1(state))  # relu(x)=max(0,x)        #out=paddle.nn.functional.relu(self.l2(out))        out=self.relu(self.l1(state))        out=self.relu(self.l2(out))        value=self.l3(out)        return value

   

3. 训练模型

3.1 定义模型存储路径

In [9]

actor_path='model/actor.pdparams'critic_path='model/critic.pdparams'

   

3.2 TD目标的计算

看可以看王树森的书,但是感觉不太一样,理论与实践存在一些差别,但是总体思想是一致的。

In [10]

def compute_returns(next_value,rewards,masks,gamma=0.99):    # 相当于n+1时刻的价值    R=next_value     returns=[]    # masks=[1,1,1,1,1,...,1,1,1,0]    # rewards=[r0,r1,r2,r3,r4,...,rn-3,rn-2,rn-1,rn]    # 倒序    for step in reversed(range(len(rewards))):        # TD目标的计算??        R=rewards[step]+gamma*R*masks[step]        returns.insert(0,R)    # returns=[t0,t1,t2,t3,t4,...,tn-3,tn-2,tn-1,tn]    return returns

   

3.3 训练过程(一)

带有很多输出,方便了解每一行代码在做什么事情。 3.3与3.4内容是一样的,只不过3.3用来理解每一步的输出;3.4用来训练,保证输出的简洁。

In [11]

def trainIters1(actor,critic,n_iters):    # 定义两个网络的优化器    optA=paddle.optimizer.Adam(lr,parameters=actor.parameters())    optC=paddle.optimizer.Adam(lr,parameters=critic.parameters())    for iter in range(n_iters):        state=env.reset() # 环境初始化 state形如[ 0.04700963 -0.0149178   0.01601383  0.03912796]        print(state)        log_probs=[] # 对数概率密度函数        rewards=[] # 奖励列表        values=[] # 价值,critic网络的输出        masks=[] # done or not done        entropy=[] # 交叉熵        env.reset() # 这里为什么又要重置环境??        # python的迭代器 count(初值=0,步长=1)        for i in count():            # env.render()            print('***************************  /n/n/n')            print('i = ',i)            # state转为paddle.tensor,不指定place,根据环境自行判断            state=paddle.to_tensor(state,dtype='float32')            print(state)            dist,value=actor(state),critic(state)            print('actor distribution:',dist) # 这是一个分类分布(class)            print('critic value:',value)            # 从分布中进行采样(具体如何采样尚且不知,根据概率进行抽样??)            action=dist.sample([1])            print('action is:',action,type(action))            # 环境执行一个时间步长,得到下一个状态,奖励,done,以及info(用不到,这里返回是空的字典)            # env.step()的输入格式是什么?:             # 将tensor拷贝到CPU上,不懂意图是什么,如果decive是在GPU上,则会有作用。            print('action.cpu()=',action.cpu())            # 删除axis=0上尺度为1的维度            print('action.cpu().squeeze(0)=',action.cpu().squeeze())            # 获取数值            print('action.cpu().squeeze(0).numpy()=',action.cpu().squeeze().numpy(),type(action.cpu().squeeze().numpy()))            next_state,reward,done,info=env.step(action.cpu().squeeze(0).numpy())            print('next_state=',next_state)            print('reward=',reward)            print('done=',done)            print('info=',info,type(info))            # 计算当前动作的对数概率密度函数            log_prob=dist.log_prob(action)            print('log_prob = ',log_prob)            # 加入到对数概率密度函数列表中            log_probs.append(log_prob)            # 将价值(critic)网络的输出加入到价值列表中            values.append(value)            # 将当前奖励加入到奖励列表中            rewards.append(paddle.to_tensor([reward],dtype='float32'))            # 将当前的done标志加入到masks列表中,False=0,            masks.append(paddle.to_tensor([1-done],dtype='float32'))            print('1-done = ',1-done)            state=next_state            if done:                if iter%10==0:                    # score 就是小车坚持了多少个时间步                    print("Iteration:{},score:{}".format(iter,i))                break            break #如果想要查看这个for循环每一步的输入,打开这个break        # end for count() 小车运行一次,也就是进行一句游戏                 print()        next_state=paddle.to_tensor(next_state,dtype='float32')        # 让critic网络根据next_state预测next_value        next_value=critic(next_state)        print('next_value = ',next_value)        returns=compute_returns(next_value,rewards,masks)        print('returns == ',returns)        print('len returns = ',len(returns))        log_probs=paddle.concat(log_probs)        # detach() 返回一个新的Tensor,从当前计算图分离。        # 作用是什么???        returns=paddle.concat(returns).detach()        values=paddle.concat(values)        print('concat log_probs: ',log_probs)        print('concat returns: ',returns)        print('concat values: ',values)        # 负的 TD 误差 ,是让values接近returns,TD误差是 values-returns        advantage=returns-values        # actor的loss计算        # critic的loss计算        actor_loss=-(log_probs*advantage.detach()).mean()        critic_loss=advantage.pow(2).mean()        print('actor_loss: ',actor_loss)        print('critic_loss: ',critic_loss)                # 更新参数,完成一句游戏更新一次        # 梯度反向传播,注意actor网络是做梯度上升;critic网络是做梯度下降        optA.clear_grad()        optC.clear_grad()        actor_loss.backward()        critic_loss.backward()        optA.step()        optC.step()        break  # 看一个iter的输出,注意打开这个break    paddle.save(actor.state_dict(),actor_path)    paddle.save(critic.state_dict(),critic_path)    env.close    print("111111111111111-------overover****************************************")

   

3.4 训练过程(二)

将很多输出注释掉,输出界面的简洁。3.3与3.4内容是一样的,只不过3.3用来理解每一步的输出;3.4用来训练,保证输出的简洁。

In [12]

def trainIters2(actor,critic,n_iters):    # 定义两个网络的优化器    optA=paddle.optimizer.Adam(lr,parameters=actor.parameters())    optC=paddle.optimizer.Adam(lr,parameters=critic.parameters())    for iter in range(n_iters):        state=env.reset() # 环境初始化 state形如[ 0.04700963 -0.0149178   0.01601383  0.03912796]        #print(state)        log_probs=[] # 对数概率密度函数        rewards=[] # 奖励列表        values=[] # 价值,critic网络的输出        masks=[] # done or not done        entropy=[] # 交叉熵        env.reset() # 这里为什么又要重置环境??        # python的迭代器 count(初值=0,步长=1)        for i in count():            # env.render() # 在线运行好像不支持            #print('***************************  /n/n/n')            #print('i = ',i)            # state转为paddle.tensor,不指定place,根据环境自行判断            state=paddle.to_tensor(state,dtype='float32')            #print(state)            dist,value=actor(state),critic(state)            #print('actor distribution:',dist) # 这是一个分类分布(class)            #print('critic value:',value)            # 从分布中进行采样(具体如何采样尚且不知,根据概率进行抽样??)            action=dist.sample([1])            #print('action is:',action,type(action))            # 环境执行一个时间步长,得到下一个状态,奖励,done,以及info(用不到,这里返回是空的字典)            # env.step()的输入格式是什么?:             # 将tensor拷贝到CPU上,不懂意图是什么,如果decive是在GPU上,则会有作用。            #print('action.cpu()=',action.cpu())            # 删除axis=0上尺度为1的维度            #print('action.cpu().squeeze(0)=',action.cpu().squeeze())            # 获取数值            #print('action.cpu().squeeze(0).numpy()=',action.cpu().squeeze().numpy(),type(action.cpu().squeeze().numpy()))            next_state,reward,done,info=env.step(action.cpu().squeeze(0).numpy())            # print('next_state=',next_state)            # print('reward=',reward)            # print('done=',done)            # print('info=',info,type(info))            # 计算当前动作的对数概率密度函数            log_prob=dist.log_prob(action)            #print('log_prob = ',log_prob)            # 加入到对数概率密度函数列表中            log_probs.append(log_prob)            # 将价值(critic)网络的输出加入到价值列表中            values.append(value)            # 将当前奖励加入到奖励列表中            rewards.append(paddle.to_tensor([reward],dtype='float32'))            # 将当前的done标志加入到masks列表中,False=0,            masks.append(paddle.to_tensor([1-done],dtype='float32'))            #print('1-done = ',1-done)            state=next_state            if done:                if iter%10==0:                    # score 就是小车坚持了多少个时间步                    print("Iteration:{},score:{}".format(iter,i))                break            # break #如果想要查看这个for循环每一步的输入,打开这个注释        # end for count() 小车运行一次,也就是进行一句游戏                 #print()        next_state=paddle.to_tensor(next_state,dtype='float32')        # 让critic网络根据next_state预测next_value        next_value=critic(next_state)        #print('next_value = ',next_value)        returns=compute_returns(next_value,rewards,masks)        #print('returns == ',returns)        #print('len returns = ',len(returns))        log_probs=paddle.concat(log_probs)        # detach() 返回一个新的Tensor,从当前计算图分离。        # 作用是什么???        returns=paddle.concat(returns).detach()        values=paddle.concat(values)        # print('concat log_probs: ',log_probs)        # print('concat returns: ',returns)        # print('concat values: ',values)        # 负的 TD 误差 ,是让values接近returns,TD误差是 values-returns        advantage=returns-values        # actor的loss计算        # critic的loss计算        actor_loss=-(log_probs*advantage.detach()).mean()        critic_loss=advantage.pow(2).mean()                # 更新参数,完成一句游戏更新一次        # 梯度反向传播,注意actor网络是做梯度上升;critic网络是做梯度下降        optA.clear_grad()        optC.clear_grad()        actor_loss.backward()        critic_loss.backward()        optA.step()        optC.step()        # break    paddle.save(actor.state_dict(),actor_path)    paddle.save(critic.state_dict(),critic_path)    env.close    print("222222222222222-------overover****************************************")

   

3.5 主函数,从文件中加载网络或是从零开始。可自行修改。

In [13]

def main():    actor=Actor(state_size,action_size)    critic=Critic(state_size,action_size)    # if os.path.exists(actor_path):    #     amodel_state_dict=paddle.load(actor_path)    #     actor.set_state_dict(amodel_state_dict)    #     print("load actor model from file")        # if os.path.exists(critic_path):    #     cmodel_state_dict=paddle.load(critic_path)    #     critic.set_state_dict(cmodel_state_dict)    #     print("load critic model from file")        # 在这里决定是用3.3 还是 用3.4    trainIters1(actor,critic,n_iters=200)    #trainIters2(actor,critic,n_iters=200)main()

       

[-0.01245204 -0.0177881  -0.0447371   0.01200596]***************************  /n/n/ni =  0Tensor(shape=[4], dtype=float32, place=CPUPlace, stop_gradient=True,       [-0.01245204, -0.01778810, -0.04473710,  0.01200596])actor distribution: critic value: Tensor(shape=[1], dtype=float32, place=CPUPlace, stop_gradient=False,       [0.00308495])action is: Tensor(shape=[1], dtype=int64, place=CPUPlace, stop_gradient=False,       [0]) action.cpu()= Tensor(shape=[1], dtype=int64, place=CPUPlace, stop_gradient=False,       [0])action.cpu().squeeze(0)= Tensor(shape=[], dtype=int64, place=CPUPlace, stop_gradient=False,       0)action.cpu().squeeze(0).numpy()= 0 next_state= [-0.0036292  -0.2412104  -0.02740825  0.25513875]reward= 1.0done= Falseinfo= {} log_prob =  Tensor(shape=[1], dtype=float32, place=CPUPlace, stop_gradient=False,       [-0.69534212])1-done =  1next_value =  Tensor(shape=[1], dtype=float32, place=CPUPlace, stop_gradient=False,       [-0.02449672])returns ==  [Tensor(shape=[1], dtype=float32, place=CPUPlace, stop_gradient=False,       [0.97574824])]len returns =  1concat log_probs:  Tensor(shape=[1], dtype=float32, place=CPUPlace, stop_gradient=False,       [-0.69534212])concat returns:  Tensor(shape=[1], dtype=float32, place=CPUPlace, stop_gradient=True,       [0.97574824])concat values:  Tensor(shape=[1], dtype=float32, place=CPUPlace, stop_gradient=False,       [0.00308495])actor_loss:  Tensor(shape=[1], dtype=float32, place=CPUPlace, stop_gradient=False,       [0.67633373])critic_loss:  Tensor(shape=[1], dtype=float32, place=CPUPlace, stop_gradient=False,       [0.94607389])111111111111111-------overover****************************************

       

以上就是【强化】Advantage Actor-Critic (A2C):强化学习之摆车的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/47230.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月7日 22:48:12
下一篇 2025年11月7日 22:52:26

相关推荐

  • CSS mask属性无法获取图片:为什么我的图片不见了?

    CSS mask属性无法获取图片 在使用CSS mask属性时,可能会遇到无法获取指定照片的情况。这个问题通常表现为: 网络面板中没有请求图片:尽管CSS代码中指定了图片地址,但网络面板中却找不到图片的请求记录。 问题原因: 此问题的可能原因是浏览器的兼容性问题。某些较旧版本的浏览器可能不支持CSS…

    2025年12月24日
    900
  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • PC端H5项目如何实现适配:流式布局、响应式设计和两套样式?

    PC端的适配方案及PC与H5兼顾的实现方案探讨 在开发H5项目时,常用的屏幕适配方案是postcss-pxtorem或postcss-px-to-viewport,通常基于iPhone 6标准作为设计稿。但对于PC端网项目,处理不同屏幕大小需要其他方案。 PC端屏幕适配方案 PC端屏幕适配一般采用流…

    2025年12月24日
    300
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 为什么设置 `overflow: hidden` 会导致 `inline-block` 元素错位?

    overflow 导致 inline-block 元素错位解析 当多个 inline-block 元素并列排列时,可能会出现错位显示的问题。这通常是由于其中一个元素设置了 overflow 属性引起的。 问题现象 在不设置 overflow 属性时,元素按预期显示在同一水平线上: 不设置 overf…

    2025年12月24日 好文分享
    400
  • 网页使用本地字体:为什么 CSS 代码中明明指定了“荆南麦圆体”,页面却仍然显示“微软雅黑”?

    网页中使用本地字体 本文将解答如何将本地安装字体应用到网页中,避免使用 src 属性直接引入字体文件。 问题: 想要在网页上使用已安装的“荆南麦圆体”字体,但 css 代码中将其置于第一位的“font-family”属性,页面仍显示“微软雅黑”字体。 立即学习“前端免费学习笔记(深入)”; 答案: …

    2025年12月24日
    000
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 为什么我的特定 DIV 在 Edge 浏览器中无法显示?

    特定 DIV 无法显示:用户代理样式表的困扰 当你在 Edge 浏览器中打开项目中的某个 div 时,却发现它无法正常显示,仔细检查样式后,发现是由用户代理样式表中的 display none 引起的。但你疑问的是,为什么会出现这样的样式表,而且只针对特定的 div? 背后的原因 用户代理样式表是由…

    2025年12月24日
    200
  • inline-block元素错位了,是为什么?

    inline-block元素错位背后的原因 inline-block元素是一种特殊类型的块级元素,它可以与其他元素行内排列。但是,在某些情况下,inline-block元素可能会出现错位显示的问题。 错位的原因 当inline-block元素设置了overflow:hidden属性时,它会影响元素的…

    2025年12月24日
    000
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 为什么使用 inline-block 元素时会错位?

    inline-block 元素错位成因剖析 在使用 inline-block 元素时,可能会遇到它们错位显示的问题。如代码 demo 所示,当设置了 overflow 属性时,a 标签就会错位下沉,而未设置时却不会。 问题根源: overflow:hidden 属性影响了 inline-block …

    2025年12月24日
    000
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 为什么我的 CSS 元素放大效果无法正常生效?

    css 设置元素放大效果的疑问解答 原提问者在尝试给元素添加 10em 字体大小和过渡效果后,未能在进入页面时看到放大效果。探究发现,原提问者将 CSS 代码直接写在页面中,导致放大效果无法触发。 解决办法如下: 将 CSS 样式写在一个单独的文件中,并使用 标签引入该样式文件。这个操作与原提问者观…

    2025年12月24日
    000
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200

发表回复

登录后才能评论
关注微信