用飞桨框架2.0造一个会下五子棋的AI模型

Gomoku游戏比围棋或象棋简单得多,因此我们可以专注于AlphaZero的训练,在一台PC机上几个小时内就可以获得一个让你不可大意的AI模型——因为一不留心,AI就可能战胜了你。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

用飞桨框架2.0造一个会下五子棋的ai模型 - 创想鸟

用飞桨框架2.0造一个会下五子棋的AI模型——从小白到高手的训练之旅

还记得令职业棋手都闻风丧胆的“阿尔法狗”么?这里有“阿尔法狗”的小兄弟——AlphaZero-Gomoku-PaddlePaddle,即我用飞桨框架2.0从零开始训练自己的AI模型,开启五子棋小游戏。

用飞桨框架2.0造一个会下五子棋的AI模型 - 创想鸟        

五子棋游戏简介

五子棋是一种两人对弈的纯策略型棋类游戏,通常双方分别使用黑白两色的棋子,轮流下在棋盘竖线与横线的交叉点上,先形成五子连线者获胜。五子棋容易上手,老少皆宜,而且趣味横生,引人入胜。

本项目简介

本项目是AlphaZero算法的一个实现(使用PaddlePaddle框架),用于玩简单的棋盘游戏Gomoku(也称为五子棋),使用纯粹的自我博弈的方式开始训练。Gomoku游戏比围棋或象棋简单得多,因此我们可以专注于AlphaZero的训练,在一台PC机上几个小时内就可以获得一个让你不可忽视的AI模型——因为一不留心,AI就可能战胜了你。因为和围棋相比,五子棋的规则较为简单,落子空间也比较小,因此没有用到AlphaGo Zero中大量使用的残差网络,只使用了卷积层和全连接层,也正是因为网络结构简单,所以用AIstudio的cpu环境也可以运行(建议使用GPU环境,程序会自动检测环境是否包含GPU,无需手动设置);本项目之前是用Paddle1.84版本写的,现在升级到paddle2.0版本。AlphaZero是MuZero的“前辈”,了解AlphaZero有助于理解MuZero算法的来龙去脉。开始训练自己的AI模型,请运行“python train.py”;开始人机对战或者AI互搏,请运行“python human_play.py”,15×15棋盘左上角9×9范围下棋的效果展示:

用飞桨框架2.0造一个会下五子棋的AI模型 - 创想鸟        

让我们用飞桨框架2.0打造一个会下五子棋的AI模型

首先,让我们开始定义策略价值网络的结构,网络比较简单,由公共网络层、行动策略网络层和状态价值网络层构成。在定义好策略和价值网络的基础上,接下来实现PolicyValueNet类,该类主要定义:policy_value_fn()方法,主要用于蒙特卡洛树搜索时评估叶子节点对应局面评分、该局所有可行动作及对应概率,后面会详细介绍蒙特卡洛树搜索;另一个方法train_step(),主要用于更新自我对弈收集数据上策略价值网络的参数。在训练神经网络阶段,我们使用自我对战学习阶段得到的样本集合(s,π,z),训练我们神经网络的模型参数。训练的目的是对于每个输入s, 神经网络输出的p,v和我们训练样本中的π,z差距尽可能的少。损失函数由三部分组成,第一部分是均方误差损失函数,用于评估神经网络预测的胜负结果和真实结果之间的差异。第二部分是交叉熵损失函数,用于评估神经网络的输出策略和我们MCTS输出的策略的差异。第三部分是L2正则化项。In [ ]

%%writefile AlphaZero_Gomoku_PaddlePaddle/policy_value_net_paddlepaddle.pyimport paddleimport numpy as npimport paddle.nn as nn import paddle.nn.functional as Fclass Net(paddle.nn.Layer):    def __init__(self,board_width, board_height):        super(Net, self).__init__()        self.board_width = board_width        self.board_height = board_height        # 公共网络层        self.conv1 = nn.Conv2D(in_channels=4,out_channels=32,kernel_size=3,padding=1)        self.conv2 = nn.Conv2D(in_channels=32,out_channels=64,kernel_size=3,padding=1)        self.conv3 = nn.Conv2D(in_channels=64,out_channels=128,kernel_size=3,padding=1)        # 行动策略网络层        self.act_conv1 = nn.Conv2D(in_channels=128,out_channels=4,kernel_size=1,padding=0)        self.act_fc1 = nn.Linear(4*self.board_width*self.board_height,                                 self.board_width*self.board_height)        self.val_conv1 = nn.Conv2D(in_channels=128,out_channels=2,kernel_size=1,padding=0)        self.val_fc1 = nn.Linear(2*self.board_width*self.board_height, 64)        self.val_fc2 = nn.Linear(64, 1)    def forward(self, inputs):        # 公共网络层         x = F.relu(self.conv1(inputs))        x = F.relu(self.conv2(x))        x = F.relu(self.conv3(x))        # 行动策略网络层        x_act = F.relu(self.act_conv1(x))        x_act = paddle.reshape(                x_act, [-1, 4 * self.board_height * self.board_width])                x_act  = F.log_softmax(self.act_fc1(x_act))                # 状态价值网络层        x_val  = F.relu(self.val_conv1(x))        x_val = paddle.reshape(                x_val, [-1, 2 * self.board_height * self.board_width])        x_val = F.relu(self.val_fc1(x_val))        x_val = F.tanh(self.val_fc2(x_val))        return x_act,x_valclass PolicyValueNet():    """策略&值网络 """    def __init__(self, board_width, board_height,                 model_file=None, use_gpu=True):        self.use_gpu = use_gpu        self.board_width = board_width        self.board_height = board_height        self.l2_const = 1e-3  # coef of l2 penalty                self.policy_value_net = Net(self.board_width, self.board_height)                        self.optimizer  = paddle.optimizer.Adam(learning_rate=0.02,                                parameters=self.policy_value_net.parameters(), weight_decay=self.l2_const)                                             if model_file:            net_params = paddle.load(model_file)            self.policy_value_net.set_state_dict(net_params)                def policy_value(self, state_batch):        """        input: a batch of states        output: a batch of action probabilities and state values        """        # state_batch = paddle.to_tensor(np.ndarray(state_batch))        state_batch = paddle.to_tensor(state_batch)        log_act_probs, value = self.policy_value_net(state_batch)        act_probs = np.exp(log_act_probs.numpy())        return act_probs, value.numpy()    def policy_value_fn(self, board):        """        input: board        output: a list of (action, probability) tuples for each available        action and the score of the board state        """        legal_positions = board.availables        current_state = np.ascontiguousarray(board.current_state().reshape(                -1, 4, self.board_width, self.board_height)).astype("float32")                # print(current_state.shape)        current_state = paddle.to_tensor(current_state)        log_act_probs, value = self.policy_value_net(current_state)        act_probs = np.exp(log_act_probs.numpy().flatten())                act_probs = zip(legal_positions, act_probs[legal_positions])        # value = value.numpy()        return act_probs, value.numpy()    def train_step(self, state_batch, mcts_probs, winner_batch, lr=0.002):        """perform a training step"""        # wrap in Variable        state_batch = paddle.to_tensor(state_batch)        mcts_probs = paddle.to_tensor(mcts_probs)        winner_batch = paddle.to_tensor(winner_batch)        # zero the parameter gradients        self.optimizer.clear_gradients()        # set learning rate        self.optimizer.set_lr(lr)                                             # forward        log_act_probs, value = self.policy_value_net(state_batch)        # define the loss = (z - v)^2 - pi^T * log(p) + c||theta||^2        # Note: the L2 penalty is incorporated in optimizer        value = paddle.reshape(x=value, shape=[-1])        value_loss = F.mse_loss(input=value, label=winner_batch)        policy_loss = -paddle.mean(paddle.sum(mcts_probs*log_act_probs, axis=1))        loss = value_loss + policy_loss        # backward and optimize        loss.backward()        self.optimizer.minimize(loss)        # calc policy entropy, for monitoring only        entropy = -paddle.mean(                paddle.sum(paddle.exp(log_act_probs) * log_act_probs, axis=1)                )        return loss.numpy(), entropy.numpy()[0]        def get_policy_param(self):        net_params = self.policy_value_net.state_dict()        return net_params    def save_model(self, model_file):        """ save model params to file """        net_params = self.get_policy_param()  # get model params        paddle.save(net_params, model_file)

       

Overwriting AlphaZero_Gomoku_PaddlePaddle/policy_value_net_paddlepaddle.py

       

为什么用MCTS?

在棋盘游戏中(现实生活中也是),玩家在决定下一步怎么走的时候往往会“多想几步”。AlphaGoZero也一样。我们用神经网络来选择最佳的下一步走法后,其余低概率的位置就被忽略掉了。像Minimax这一类传统的AI博弈树搜索算法效率都很低,因为这些算法在做出最终选择前需要穷尽每一种走法。即使是带有较少分支因子的游戏也会使其博弈搜索空间变得像是脱缰的野马似的难以驾驭。分支因子就是所有可能的走法的数量。这个数量会随着游戏的进行不断变化。因此,你可以试着计算一个平均分支因子数,国际象棋的平均分支因子是35,而围棋则是250。这意味着,在国际象棋中,仅走两步就有1,225(35²)种可能的棋面,而在围棋中,这个数字会变成62,500(250²)。现在,时代变了,神经网络将指导并告诉我们哪些博弈路径值得探索,从而避免被许多无用的搜索路径所淹没。接着,蒙特卡洛树搜索算法就将登场啦!

棋类游戏的蒙特卡洛树搜索(MCTS)

使用MCTS的具体做法是这样的,给定一个棋面,MCTS共进行N次模拟。主要的搜索阶段有4个:选择,扩展,仿真和回溯

用飞桨框架2.0造一个会下五子棋的AI模型 - 创想鸟        

第一步是选择(Selection):这一步会从根节点开始,每次都选一个“最值得搜索的子节点”,一般使用UCT选择分数最高的节点,直到来到一个“存在未扩展的子节点”的节点

第二步是扩展(Expansion),在这个搜索到的存在未扩展的子节点,加上一个没有历史记录的子节点,初始化子节点

第三步是仿真(simulation),从上面这个没有试过的着法开始,用一个简单策略比如快速走子策略(Rollout policy)走到底,得到一个胜负结果。快速走子策略一般适合选择走子很快可能不是很精确的策略。因为如果这个策略走得慢,结果虽然会更准确,但由于耗时多了,在单位时间内的模拟次数就少了,所以不一定会棋力更强,有可能会更弱。这也是为什么我们一般只模拟一次,因为如果模拟多次,虽然更准确,但更慢。

第四步是回溯(backpropagation), 将我们最后得到的胜负结果回溯加到MCTS树结构上。注意除了之前的MCTS树要回溯外,新加入的节点也要加上一次胜负历史记录。

文心大模型 文心大模型

百度飞桨-文心大模型 ERNIE 3.0 文本理解与创作

文心大模型 56 查看详情 文心大模型

以上就是MCTS搜索的整个过程。这4步一般是通用的,但是MCTS树结构上保存的内容而一般根据要解决的问题和建模的复杂度而不同。

基于神经网络的蒙特卡洛树搜索(MCTS)

N(s,a) :记录边的访问次数; W(s,a): 合计行动价值; Q(s,a) :平均行动价值; P(s,a) :选择该条边的先验概率;

首先是选择(Selection):在MCTS内部,出现过的局面,我们会使用UCT选择子分支。最终我们会选择Q+U最大的子分支作为搜索分支,一直走到棋局结束,或者走到了没有到终局MCTS的叶子节点。cpuctcpuct是决定探索程度的一个系数

用飞桨框架2.0造一个会下五子棋的AI模型 - 创想鸟        

然后是扩展(Expansion)&&仿真(simulation),对于叶子节点状态s,会利用神经网络对叶子节点做预测,得到当前叶子节点的各个可能的子节点位置sL落子的概率p和对应的价值v,对于这些可能的新节点我们在MCTS中创建出来,初始化其分支上保存的信息为

用飞桨框架2.0造一个会下五子棋的AI模型 - 创想鸟        

最后是回溯(backpropagation), 将新叶子节点分支的信息回溯累加到祖先节点分支上去。这个回溯的逻辑也是很简单的,从每个叶子节点L依次向根节点回溯,并依次更新上层分支数据结构如下:

用飞桨框架2.0造一个会下五子棋的AI模型 - 创想鸟        

MCTS搜索完毕后,模型就可以在MCTS的根节点s基于以下公式选择行棋的MCTS分支了: 用飞桨框架2.0造一个会下五子棋的AI模型 - 创想鸟        

τ是用来控制探索的程度,τ的取值介于(0,1]之间,当τ越接近于1时,神经网络的采样越接近于MCTS的原始采样,当τ越接近于0时,神经网络的采样越接近于贪婪策略,即选择最大访问次数N所对应的动作。 因为在τ很小的情况下,直接计算访问次数N的τ次方根可能会导致数值异常,为了避免这种情况,在计算行动概率时,先将访问次数N加上一个非常小的数值(本项目是1e-10),取自然对数后乘上1/τ,再用一个简化的softmax函数将输出还原为概率,这和原始公式在数学上基本上是等效的。softmax()方法和get_move_probs()方法的代码分别如下:

def softmax(x):probs = np.exp(x - np.max(x)) probs /= np.sum(probs)return probsdef get_move_probs(self, state, temp=1e-3):        """按顺序运行所有播出并返回可用的操作及其相应的概率。        state: 当前游戏的状态        temp: 介于(0,1]之间的临时参数控制探索的概率        """        for n in range(self._n_playout):            state_copy = copy.deepcopy(state)            self._playout(state_copy)        # 根据根节点处的访问计数来计算移动概率        act_visits = [(act, node._n_visits)                      for act, node in self._root._children.items()]        acts, visits = zip(*act_visits)        act_probs = softmax(1.0/temp * np.log(np.array(visits) + 1e-10))        return acts, act_probs

       

关键点是什么?

通过每一次模拟,MCTS依靠神经网络, 使用累计价值(Q)、神经网络给出的走法先验概率(P)以及访问对应节点的频率这些数字的组合,沿着最有希望获胜的路径(换句话说,也就是具有最高置信区间上界的路径)进行探索。在每一次模拟中,MCTS会尽可能向纵深进行探索直至遇到它从未见过的盘面状态,在这种情况下,它会通过神经网络来评估该盘面状态的优劣巧妙了使用MCTS搜索树和神经网络一起,通过MCTS搜索树优化神经网络参数,反过来又通过优化的神经网络指导MCTS搜索。

具体代码可以自行查看项目文件

训练算法流程

AlphaZero的算法流程,概括来说就是通过自我对弈收集数据,并用于更新策略价值网络,更新后的策略价值网络又会被用于后续的自我对弈过程中,从而产生高质量的自我对弈数据,这样相互促进、不断迭代,实现稳定的学习和提升。我们将训练流程定义为run(),会循环执行self.collect_selfplay_data()方法,从而收集自我对弈的数据,收集到的数据多于self.batch_size时,我们就调用self.policy_update()来更新策略价值网络。

训练的主文件train.py,可以调整各种超参数

In [ ]

%%writefile AlphaZero_Gomoku_PaddlePaddle/train.py#!/usr/bin/env python# -*- coding: utf-8 -*-#  对于五子棋的AlphaZero的训练的实现from __future__ import print_functionimport randomimport numpy as npimport osfrom collections import defaultdict, dequefrom game import Board, Game_UIfrom mcts_pure import MCTSPlayer as MCTS_Purefrom mcts_alphaGoZero import MCTSPlayerfrom policy_value_net_paddlepaddle import PolicyValueNet  # paddlepaddleimport paddleclass TrainPipeline():    def __init__(self, init_model=None, is_shown = 0):        # 五子棋逻辑和棋盘UI的参数        self.board_width = 9  ###为了更快的验证算法,可以调整棋盘大小为(8x8) ,(6x6)        self.board_height = 9        self.n_in_row = 5        self.board = Board(width=self.board_width,                           height=self.board_height,                           n_in_row=self.n_in_row)        self.is_shown = is_shown        self.game = Game_UI(self.board, is_shown)        # 训练参数        self.learn_rate = 2e-3        self.lr_multiplier = 1.0  # 基于KL自适应地调整学习率        self.temp = 1.0  # 临时变量        self.n_playout = 400  # 每次移动的模拟次数        self.c_puct = 5        self.buffer_size = 10000 #经验池大小 10000        self.batch_size = 512  # 训练的mini-batch大小 512        self.data_buffer = deque(maxlen=self.buffer_size)        self.play_batch_size = 1        self.epochs = 5  # 每次更新的train_steps数量        self.kl_targ = 0.02        self.check_freq = 100  #评估模型的频率,可以设置大一些比如500        self.game_batch_num = 1500        self.best_win_ratio = 0.0        # 用于纯粹的mcts的模拟数量,用作评估训练策略的对手        self.pure_mcts_playout_num = 1000        if init_model:            # 从初始的策略价值网开始训练            self.policy_value_net = PolicyValueNet(self.board_width,                                                   self.board_height,                                                   model_file=init_model)        else:            # 从新的策略价值网络开始训练            self.policy_value_net = PolicyValueNet(self.board_width,                                                   self.board_height)        # 定义训练机器人        self.mcts_player = MCTSPlayer(self.policy_value_net.policy_value_fn,                                      c_puct=self.c_puct,                                      n_playout=self.n_playout,                                      is_selfplay=1)    def get_equi_data(self, play_data):        """通过旋转和翻转来增加数据集        play_data: [(state, mcts_prob, winner_z), ..., ...]        """        extend_data = []        for state, mcts_porb, winner in play_data:            for i in [1, 2, 3, 4]:                # 逆时针旋转                equi_state = np.array([np.rot90(s, i) for s in state])                equi_mcts_prob = np.rot90(np.flipud(                    mcts_porb.reshape(self.board_height, self.board_width)), i)                extend_data.append((equi_state,                                    np.flipud(equi_mcts_prob).flatten(),                                    winner))                # 水平翻转                equi_state = np.array([np.fliplr(s) for s in equi_state])                equi_mcts_prob = np.fliplr(equi_mcts_prob)                extend_data.append((equi_state,                                    np.flipud(equi_mcts_prob).flatten(),                                    winner))        return extend_data    def collect_selfplay_data(self, n_games=1):        """收集自我博弈数据进行训练"""        for i in range(n_games):            winner, play_data = self.game.start_self_play(self.mcts_player, temp=self.temp)            play_data = list(play_data)[:]            self.episode_len = len(play_data)            # 增加数据            play_data = self.get_equi_data(play_data)            self.data_buffer.extend(play_data)    def policy_update(self):        """更新策略价值网络"""        mini_batch = random.sample(self.data_buffer, self.batch_size)        state_batch = [data[0] for data in mini_batch]                # print(np.array( state_batch).shape )        state_batch= np.array( state_batch).astype("float32")                mcts_probs_batch = [data[1] for data in mini_batch]        mcts_probs_batch= np.array( mcts_probs_batch).astype("float32")                winner_batch = [data[2] for data in mini_batch]        winner_batch= np.array( winner_batch).astype("float32")                old_probs, old_v = self.policy_value_net.policy_value(state_batch)        for i in range(self.epochs):            loss, entropy = self.policy_value_net.train_step(                state_batch,                mcts_probs_batch,                winner_batch,                self.learn_rate * self.lr_multiplier)            new_probs, new_v = self.policy_value_net.policy_value(state_batch)            kl = np.mean(np.sum(old_probs * (                np.log(old_probs + 1e-10) - np.log(new_probs + 1e-10)),                                axis=1)                         )            if kl > self.kl_targ * 4:  # early stopping if D_KL diverges badly                break        # 自适应调节学习率        if kl > self.kl_targ * 2 and self.lr_multiplier > 0.1:            self.lr_multiplier /= 1.5        elif kl < self.kl_targ / 2 and self.lr_multiplier  self.batch_size:                    loss, entropy = self.policy_update()                    print("loss :{}, entropy:{}".format(loss, entropy))                if (i + 1) % 50 == 0:                    self.policy_value_net.save_model(os.path.join(dst_path, 'current_policy_step.model'))                # 检查当前模型的性能,保存模型的参数                if (i + 1) % self.check_freq == 0:                    print("current self-play batch: {}".format(i + 1))                    win_ratio = self.policy_evaluate()                    self.policy_value_net.save_model(os.path.join(dst_path, 'current_policy.model'))                    if win_ratio > self.best_win_ratio:                        print("New best policy!!!!!!!!")                        self.best_win_ratio = win_ratio                        # 更新最好的策略                        self.policy_value_net.save_model(os.path.join(dst_path, 'best_policy.model'))                        if (self.best_win_ratio == 1.0 and                                    self.pure_mcts_playout_num < 8000):                            self.pure_mcts_playout_num += 1000                            self.best_win_ratio = 0.0        except KeyboardInterrupt:            print('nrquit')if __name__ == '__main__':        device = paddle.get_device()                       paddle.set_device(device)        is_shown = 0        # model_path = 'dist/best_policy.model'        model_path = 'dist/current_policy.model'        training_pipeline = TrainPipeline(model_path, is_shown)        # training_pipeline = TrainPipeline(None, is_shown)        training_pipeline.run()

       

Overwriting AlphaZero_Gomoku_PaddlePaddle/train.py

       

开始训练和评估:

In [ ]

!pip install pygame%cd AlphaZero_Gomoku_PaddlePaddle !python train.py

   

训练的截图,每隔一定步数会进行自博弈,评估网络并保留参数(这是加载过之前训练的参数的):

用飞桨框架2.0造一个会下五子棋的AI模型 - 创想鸟        

最后再介绍下MuZero

MuZero是AlphaZero的后继者。与AlphaGo和AlphaZero相似,MuZero也使用MCTS汇总神经网络预测,并选择适合当前环境的动作。但MuZero不需要提供规则手册,只需通过自我试验,便能学会象棋围棋游戏和各种Atari游戏。除此以外,它还能通过考虑游戏环境的各个方面来评估局面是否有利以及策略是否有效,并可通过复盘游戏在自身错误中学习。

以上就是用飞桨框架2.0造一个会下五子棋的AI模型的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/317168.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月5日 08:16:37
下一篇 2025年11月5日 08:20:59

相关推荐

  • CSS mask属性无法获取图片:为什么我的图片不见了?

    CSS mask属性无法获取图片 在使用CSS mask属性时,可能会遇到无法获取指定照片的情况。这个问题通常表现为: 网络面板中没有请求图片:尽管CSS代码中指定了图片地址,但网络面板中却找不到图片的请求记录。 问题原因: 此问题的可能原因是浏览器的兼容性问题。某些较旧版本的浏览器可能不支持CSS…

    2025年12月24日
    900
  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 为什么设置 `overflow: hidden` 会导致 `inline-block` 元素错位?

    overflow 导致 inline-block 元素错位解析 当多个 inline-block 元素并列排列时,可能会出现错位显示的问题。这通常是由于其中一个元素设置了 overflow 属性引起的。 问题现象 在不设置 overflow 属性时,元素按预期显示在同一水平线上: 不设置 overf…

    2025年12月24日 好文分享
    400
  • 网页使用本地字体:为什么 CSS 代码中明明指定了“荆南麦圆体”,页面却仍然显示“微软雅黑”?

    网页中使用本地字体 本文将解答如何将本地安装字体应用到网页中,避免使用 src 属性直接引入字体文件。 问题: 想要在网页上使用已安装的“荆南麦圆体”字体,但 css 代码中将其置于第一位的“font-family”属性,页面仍显示“微软雅黑”字体。 立即学习“前端免费学习笔记(深入)”; 答案: …

    2025年12月24日
    000
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 为什么我的特定 DIV 在 Edge 浏览器中无法显示?

    特定 DIV 无法显示:用户代理样式表的困扰 当你在 Edge 浏览器中打开项目中的某个 div 时,却发现它无法正常显示,仔细检查样式后,发现是由用户代理样式表中的 display none 引起的。但你疑问的是,为什么会出现这样的样式表,而且只针对特定的 div? 背后的原因 用户代理样式表是由…

    2025年12月24日
    200
  • inline-block元素错位了,是为什么?

    inline-block元素错位背后的原因 inline-block元素是一种特殊类型的块级元素,它可以与其他元素行内排列。但是,在某些情况下,inline-block元素可能会出现错位显示的问题。 错位的原因 当inline-block元素设置了overflow:hidden属性时,它会影响元素的…

    2025年12月24日
    000
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 为什么使用 inline-block 元素时会错位?

    inline-block 元素错位成因剖析 在使用 inline-block 元素时,可能会遇到它们错位显示的问题。如代码 demo 所示,当设置了 overflow 属性时,a 标签就会错位下沉,而未设置时却不会。 问题根源: overflow:hidden 属性影响了 inline-block …

    2025年12月24日
    000
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 为什么我的 CSS 元素放大效果无法正常生效?

    css 设置元素放大效果的疑问解答 原提问者在尝试给元素添加 10em 字体大小和过渡效果后,未能在进入页面时看到放大效果。探究发现,原提问者将 CSS 代码直接写在页面中,导致放大效果无法触发。 解决办法如下: 将 CSS 样式写在一个单独的文件中,并使用 标签引入该样式文件。这个操作与原提问者观…

    2025年12月24日
    000
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 为什么我的 em 和 transition 设置后元素没有放大?

    元素设置 em 和 transition 后不放大 一个 youtube 视频中展示了设置 em 和 transition 的元素在页面加载后会放大,但同样的代码在提问者电脑上没有达到预期效果。 可能原因: 问题在于 css 代码的位置。在视频中,css 被放置在单独的文件中并通过 link 标签引…

    2025年12月24日
    100

发表回复

登录后才能评论
关注微信