【深度学习实战】一、Numpy手撸神经网络实现线性回归

本文围绕用Numpy手撸神经网络实现线性回归展开,先定义包含data和grad的Tensor及初始化类,再实现全连接层、ReLU等层结构,组建模型,还实现带动量的SGD优化器和MSE损失函数,最后以拟合f(x)=sin(x)为例,完成数据处理、模型训练与验证,展示了神经网络底层实现过程。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

【深度学习实战】一、numpy手撸神经网络实现线性回归 - 创想鸟

【深度学习实战】一、Numpy手撸神经网络实现线性回归

一、简介

在学习深度学习时,在理论学习完成后,我们常常会直接使用框架(paddle/torch/tensorflow)来搭建我们的模型,常常忽略了各种层结构的底层实现。学习完成深度学习理论的你,能不能手撸一个简单的模型呢?本文旨在从基础开始,一步一步实现深度学习的参数优化,模型搭建过程,巩固基础知识,从理论到实践,一步一步探索深度学习的奥秘。

本文不会过多介绍深度学习的理论,直接从代码层面来实现全连接层、激活函数和SGD优化器,搭建一个简单的全连接模型,并且以一个线性回归示例,验证模型的效果。

二、目标

本文以学习为目的,以f(x) = sin(x)为目标函数,建立神经网络模型来拟合目标曲线。

数据如下图所示:【深度学习实战】一、Numpy手撸神经网络实现线性回归 - 创想鸟        

拟合结果如下图所示:【深度学习实战】一、Numpy手撸神经网络实现线性回归 - 创想鸟        

本文涉及的参考资料:

1、全连接层前向传播和梯度计算
2、动量梯度下降
3、ReLU

三、实现思路

在深度学习框架中,数据都是以tensor的形式进行计算,这里为了简单,数据的输入和输入都是以numpy.ndarray的格式传输。
本小节内容包含了相关类的实现。

1、tensor和初始化

tensor包含data和grad,保存data和对应的梯度数据。

In [1]

# 因为层的参数需要保存值和对应的梯度,这里定义梯度,可训练的参数全部以Tensor的类别保存import numpy as npnp.random.seed(10001)class Tensor:    def __init__(self, shape):        self.data = np.zeros(shape=shape, dtype=np.float32) # 存放数据        self.grad = np.zeros(shape=shape, dtype=np.float32) # 存放梯度    def clear_grad(self):        self.grad = np.zeros_like(self.grad)    def __str__(self):        return "Tensor shape: {}, data: {}".format(self.data.shape, self.data)# Tensor的初始化类,目前仅提供Normal初始化和Constant初始化class Initializer:    """    基类    """    def __init__(self, shape=None, name='initializer'):        self.shape = shape        self.name = name    def __call__(self, *args, **kwargs):        raise NotImplementedError    def __str__(self):        return self.nameclass Constant(Initializer):    def __init__(self, value=0., name='constant initializer', *args, **kwargs):        super().__init__(name=name, *args, **kwargs)        self.value = value    def __call__(self, shape=None, *args, **kwargs):        if shape:            self.shape = shape        assert shape is not None, "the shape of initializer must not be None."        return self.value + np.zeros(shape=self.shape)class Normal(Initializer):    def __init__(self, mean=0., std=0.01, name='normal initializer', *args, **kwargs):        super().__init__(name=name, *args, **kwargs)        self.mean = mean        self.std = std    def __call__(self, shape=None, *args, **kwargs):        if shape:            self.shape = shape        assert shape is not None, "the shape of initializer must not be None."        return np.random.normal(self.mean, self.std, size=self.shape)

   

2、Layer

这里实现了全连接层Linear和ReLU激活函数。
1、全连接层前向传播和梯度计算
2、ReLU

In [2]

# 为了使层能够组建起来,实现前向传播和反向传播,首先定义层的基类Layer# Layer的几个主要方法说明:#   forward: 实现前向传播#   backward: 实现反向传播#   parameters: 返回该层的参数,传入优化器进行优化class Layer:    def __init__(self, name='layer', *args, **kwargs):        self.name = name    def forward(self, *args, **kwargs):        raise NotImplementedError    def backward(self):        raise NotImplementedError    def parameters(self):        return []    def __call__(self, *args, **kwargs):        return self.forward(*args, **kwargs)    def __str__(self):        return self.nameclass Linear(Layer):    """    input X, shape: [N, C]    output Y, shape: [N, O]    weight W, shape: [C, O]    bias b, shape: [1, O]    grad dY, shape: [N, O]    forward formula:        Y = X @ W + b   # @表示矩阵乘法    backward formula:        dW = X.T @ dY        db = sum(dY, axis=0)        dX = dY @ W.T    """    def __init__(        self,        in_features,        out_features,        name='linear',        weight_attr=Normal(),        bias_attr=Constant(),        *args,        **kwargs        ):        super().__init__(name=name, *args, **kwargs)        self.weights = Tensor((in_features, out_features))        self.weights.data = weight_attr(self.weights.data.shape)        self.bias = Tensor((1, out_features))        self.bias.data = bias_attr(self.bias.data.shape)        self.input = None    def forward(self, x):        self.input = x        output = np.dot(x, self.weights.data) + self.bias.data        return output    def backward(self, gradient):        self.weights.grad += np.dot(self.input.T, gradient)  # dy / dw        self.bias.grad += np.sum(gradient, axis=0, keepdims=True)  # dy / db         input_grad = np.dot(gradient, self.weights.data.T)  # dy / dx        return input_grad    def parameters(self):        return [self.weights, self.bias]    def __str__(self):        string = "linear layer, weight shape: {}, bias shape: {}".format(self.weights.data.shape, self.bias.data.shape)        return stringclass ReLU(Layer):    """    forward formula:        relu = x if x >= 0             = 0 if x  0)    """    def __init__(self, name='relu', *args, **kwargs):        super().__init__(name=name, *args, **kwargs)        self.activated = None    def forward(self, x):        x[x  0)

   

3、模型组网

将层串联起来,实现前向传播和反向传播。

In [3]

# 模型组网的功能是将层串起来,实现数据的前向传播和梯度的反向传播# 添加层的时候,按照顺序添加层的参数# Sequential方法说明:#   add: 向组网中添加层#   forward: 按照组网构建的层顺序,依次前向传播#   backward: 接收损失函数的梯度,按照层的逆序反向传播class Sequential:    def __init__(self, *args, **kwargs):        self.graphs = []        self._parameters = []        for arg_layer in args:            if isinstance(arg_layer, Layer):                self.graphs.append(arg_layer)                self._parameters += arg_layer.parameters()    def add(self, layer):        assert isinstance(layer, Layer), "The type of added layer must be Layer, but got {}.".format(type(layer))        self.graphs.append(layer)        self._parameters += layer.parameters()    def forward(self, x):        for graph in self.graphs:            x = graph(x)        return x    def backward(self, grad):        # grad backward in inverse order of graph        for graph in self.graphs[::-1]:            grad = graph.backward(grad)    def __call__(self, *args, **kwargs):        return self.forward(*args, **kwargs)    def __str__(self):        string = 'Sequential:n'        for graph in self.graphs:            string += graph.__str__() + 'n'        return string    def parameters(self):        return self._parameters

   

4、优化器

实现了SGD优化器(带动量)
1、动量梯度下降

In [4]

# 优化器主要完成根据梯度来优化参数的任务,其主要参数有学习率和正则化类型和正则化系数# Optimizer主要方法:#   step: 梯度反向传播后调用,该方法根据计算出的梯度,对参数进行优化#   clear_grad: 模型调用backward后,梯度会进行累加,如果已经调用step优化过参数,需要将使用过的梯度清空#   get_decay: 根据不同的正则化方法,计算出正则化惩罚值class Optimizer:    """    optimizer base class.    Args:        parameters (Tensor): parameters to be optimized.        learning_rate (float): learning rate. Default: 0.001.        weight_decay (float): The decay weight of parameters. Defaylt: 0.0.        decay_type (str): The type of regularizer. Default: l2.    """    def __init__(self, parameters, learning_rate=0.001, weight_decay=0.0, decay_type='l2'):        assert decay_type in ['l1', 'l2'], "only support decay_type 'l1' and 'l2', but got {}.".format(decay_type)        self.parameters = parameters        self.learning_rate = learning_rate        self.weight_decay = weight_decay        self.decay_type = decay_type            def step(self):        raise NotImplementedError    def clear_grad(self):        for p in self.parameters:            p.clear_grad()    def get_decay(self, g):        if self.decay_type == 'l1':            return self.weight_decay        elif self.decay_type == 'l2':            return self.weight_decay * g# 基本的梯度下降法为(不带正则化):# W = W - learn_rate * dW# 带动量的梯度计算方法(减弱的梯度的随机性):# dW = (momentum * v) + (1 - momentum) * dWclass SGD(Optimizer):    def __init__(self, momentum=0.9, *args, **kwargs):        super().__init__(*args, **kwargs)        self.momentum = momentum        self.velocity = []        for p in self.parameters:            self.velocity.append(np.zeros_like(p.grad))    def step(self):        for p, v in zip(self.parameters, self.velocity):            decay = self.get_decay(p.grad)            v = self.momentum * v + p.grad + decay # 动量计算            p.data = p.data - self.learning_rate * v

   

5、损失函数

实现了MSE损失函数。

In [5]

# 损失函数的设计延续了Layer的模式,但是因为需要注意的是forward和backward部分有些不同# MSE_loss = (predict_value - label) ^ 2# MSE方法和Layer的区别:#   forward:y是组网输出的值,target是目标值(这里的输入是组网的输出和目标值),前向传播的同时把dloss / dy 计算出来#   backward: 没有参数,因为在forward的时候,计算出了dloss / dy,所以这里不需要输入参数class MSE(Layer):    """    Mean Square Error:        J = 0.5 * (y - target)^2    gradient formula:        dJ/dy = y - target    """    def __init__(self, name='mse', reduction='mean', *args, **kwargs):        super().__init__(name=name, *args, **kwargs)        assert reduction in ['mean', 'none', 'sum'], "reduction only support 'mean', 'none' and 'sum', but got {}.".format(reduction)        self.reduction = reduction        self.pred = None        self.target = None    def forward(self, y, target):        assert y.shape == target.shape, "The shape of y and target is not same, y shape = {} but target shape = {}".format(y.shape, target.shape)        self.pred = y        self.target = target        loss = 0.5 * np.square(y - target)        if self.reduction is 'mean':            return loss.mean()        elif self.reduction is 'none':            return loss        else:            return loss.sum()    def backward(self):        gradient = self.pred - self.target        return gradient

   

6、dataset

In [6]

# 这里仿照PaddlePaddle,Dataset需要实现__getitem__和__len__方法class Dataset:    def __init__(self, *args, **kwargs):        pass    def __getitem__(self, idx):        raise NotImplementedError("'{}' not implement in class {}"                                  .format('__getitem__', self.__class__.__name__))    def __len__(self):        raise NotImplementedError("'{}' not implement in class {}"                                  .format('__len__', self.__class__.__name__))# 根据dataset和一些设置,生成每个batch在dataset中的索引class BatchSampler:    def __init__(self, dataset=None, shuffle=False, batch_size=1, drop_last=False):        self.batch_size = batch_size        self.drop_last = drop_last        self.shuffle = shuffle        self.num_data = len(dataset)        if self.drop_last or (self.num_data % batch_size == 0):            self.num_samples = self.num_data // batch_size        else:            self.num_samples = self.num_data // batch_size + 1        indices = np.arange(self.num_data)        if shuffle:            np.random.shuffle(indices)        if drop_last:            indices = indices[:self.num_samples * batch_size]        self.indices = indices    def __len__(self):        return self.num_samples    def __iter__(self):        batch_indices = []        for i in range(self.num_samples):            if (i + 1) * self.batch_size  0:            yield batch_indices# 根据sampler生成的索引,从dataset中取数据,并组合成一个batchclass DataLoader:    def __init__(self, dataset, sampler=BatchSampler, shuffle=False, batch_size=1, drop_last=False):        self.dataset = dataset        self.sampler = sampler(dataset, shuffle, batch_size, drop_last)    def __len__(self):        return len(self.sampler)    def __call__(self):        self.__iter__()    def __iter__(self):        for sample_indices in self.sampler:            data_list = []            label_list = []            for indice in sample_indices:                data, label = self.dataset[indice]                data_list.append(data)                label_list.append(label)            yield np.stack(data_list, axis=0), np.stack(label_list, axis=0)

   

四、线性回归示例

本小节的目标是使用上面完成的类,搭建一个简单的模型,并且实现线性拟合的过程。

1、提取数据

In [7]

# 提取训练数据(这里是一个预先生成的f(x) = sin(x) + noise的数据)!unzip -oq ~/data/data119921/sin_data.zip

   

2、查看数据分布

In [8]

# 绘制原始数据图像import matplotlib.pyplot as plt%matplotlib inlinex_path = "x.npy"y_path = "y.npy"X = np.load(x_path)Y = np.load(y_path)plt.scatter(X, Y)

       


               

               

3、搭建模型,设置超参数

In [9]

epoches = 1000batch_size = 4learning_rate = 0.01weight_decay = 0.0train_number = 100 # 选择的训练数据数量,总共200,这里仅挑选一部分训练,否则数据太多过拟合看不出来# 继承之前定义的Dataset,定义一个简单的Datasetclass LinearDataset(Dataset):    def __init__(self, X, Y):        self.X = X        self.Y = Y    def __len__(self):        return len(self.X)    def __getitem__(self, idx):        return self.X[idx], self.Y[idx]# 搭建一个简单的模型model = Sequential(    Linear(1, 16, name='linear1'),    ReLU(name='relu1'),    Linear(16, 64, name='linear2'),    ReLU(name='relu2'),    Linear(64, 16, name='linear2'),    ReLU(name='relu3'),    Linear(16, 1, name='linear2'),)opt = SGD(parameters=model.parameters(), learning_rate=learning_rate, weight_decay=weight_decay, decay_type='l2')loss_fn = MSE()print(model)

       

Sequential:linear layer, weight shape: (1, 16), bias shape: (1, 16)relu1linear layer, weight shape: (16, 64), bias shape: (1, 64)relu2linear layer, weight shape: (64, 16), bias shape: (1, 16)relu3linear layer, weight shape: (16, 1), bias shape: (1, 1)

       

4、训练

In [10]

# 挑选部分数据训练,数据分布图绘制indexes = np.arange(X.shape[0])train_indexes = np.random.choice(indexes, train_number)X = X[train_indexes]Y = Y[train_indexes]plt.scatter(X, Y)

       


               

               In [ ]

# 构建dataset和dataloader,开始训练train_dataset = LinearDataset(X, Y)train_dataloader = DataLoader(train_dataset, shuffle=True, batch_size=batch_size, drop_last=True)for epoch in range(1, epoches):    losses = []    for x, y in train_dataloader:        pred = model(x)        loss = loss_fn(pred, y)        losses.append(loss)        grad = loss_fn.backward()        model.backward(grad)        opt.step()        opt.clear_grad()    print("epoch: {}. loss: {}".format(epoch, np.array(losses).mean()))

   

5、验证效果

In [12]

# 训练结束,生成比较密集的点,绘制曲线查看模型效果val_number = 500  # 验证点的个数X_val = np.linspace(-np.pi, np.pi, val_number).reshape(val_number, 1)Y_val = np.sin(X_val) * 2val_dataset = LinearDataset(X_val, Y_val)val_dataloader = DataLoader(val_dataset, shuffle=False, batch_size=2, drop_last=False)all_pred = []for x, y in val_dataloader:    pred = model(x)    all_pred.append(pred)all_pred = np.vstack(all_pred)plt.plot(X_val, Y_val, color='green', label='true')plt.plot(X_val, all_pred, color='red', label='predict')plt.legend()plt.show()

       

               In [13]

# 打印模型权重for g in model.graphs:    try:        print(g.name, "  weights: ", g.weights.data)        print(g.name, "  bias: ", g.bias.data)    except:        # relu 没有参数        pass

       

linear1   weights:  [[-3.39505853e-01  1.82815127e-01  3.41670755e-04  4.51586227e-01   1.53022752e-01  4.51654343e-01 -3.72304150e-01  2.76332489e-01  -1.38630030e-01 -9.45745032e-02 -2.80274033e-02  3.21501804e-01   5.63259058e-04  3.02464553e-01  4.12779030e-01 -5.02756806e-01]]linear1   bias:  [[-0.27559667  0.25060406 -0.00106264  0.25735576  0.15667835 -0.29261948  -0.22068097  0.34773508 -0.06852324 -0.06383495 -0.00121021 -0.20815822  -0.00207523  0.41023867 -0.14955467 -0.27659916]]linear2   weights:  [[ 0.00802045 -0.01371165 -0.02685921 ...  0.02362987 -0.00621883  -0.02786108] [-0.00452856 -0.00503155  0.04844489 ... -0.00561967  0.0025664   0.00678349] [-0.00615242 -0.00192324  0.00115901 ... -0.00903875  0.00314179  -0.01176954] ... [-0.00625044 -0.00103386  0.12367338 ... -0.0048607  -0.01353281  -0.00611369] [ 0.00415564 -0.01963549  0.12541482 ...  0.01609308 -0.00733272  -0.01286687] [ 0.03625054 -0.03395289  0.00589992 ...  0.02610544  0.00226727  -0.01638553]]linear2   bias:  [[-5.80917490e-02  5.01950195e-02 -2.29461260e-01  8.53813886e-01   0.00000000e+00  5.57391247e-03  0.00000000e+00 -1.83248948e-01   2.48837634e-01 -1.11183245e-01 -3.48240873e-01 -4.50779643e-02  -1.28934035e-02  1.12025269e-01  3.79346683e-01  1.35687659e-01   1.21481402e-01 -8.63197975e-02  1.85562909e-03 -2.77419326e-01   7.55994579e-01  0.00000000e+00  0.00000000e+00 -1.42549552e-01   2.88624148e-01 -1.72867527e-01  1.70860914e-01  2.40404679e-01  -8.84156448e-02 -8.03972453e-02 -2.88965818e-01  9.83171145e-02   0.00000000e+00  3.17059611e-01 -1.04739710e-01 -1.16109983e-03   4.49676180e-01  5.43205541e-01  0.00000000e+00  2.16567560e-01   2.66316055e-01  6.52556933e-02  4.21085572e-01 -1.75897451e-01   1.70725040e-01  4.57763929e-01  5.90660615e-02  0.00000000e+00   2.24770074e-01  4.92650106e-01  3.92872747e-01 -1.09088249e-03   3.87059634e-01  1.32970903e-01 -8.24098597e-04  6.95018101e-01  -2.67006851e-01 -3.10753157e-03  0.00000000e+00 -4.12923279e-02  -1.75980184e-02 -4.42488935e-02  0.00000000e+00  4.16345087e-02]]linear2   weights:  [[-0.00030464 -0.01316401 -0.00232969 ... -0.00735164  0.02166657   0.00125336] [ 0.01472182 -0.01163708  0.00238465 ... -0.01319246  0.02852089   0.00038934] [-0.01692646 -0.00244135 -0.00771588 ...  0.05227914 -0.14514223   0.01070569] ... [ 0.00063122  0.00322329 -0.00613279 ... -0.00629652  0.02223584  -0.00575858] [ 0.00141447  0.00212887 -0.01180259 ... -0.00223564  0.00415438   0.00539367] [-0.00545804 -0.01563078  0.00269196 ... -0.01580513  0.0176982  -0.00294621]]linear2   bias:  [[ 2.24308947e-02  4.52850508e-02 -6.85257176e-04  4.71155020e-01  -2.25538467e-02  4.94627319e-01 -3.26158083e-04  8.32043208e-01   1.27510619e+00 -1.93002987e-02  8.65411471e-01 -1.87107957e-02  -2.39317258e-02  3.22988423e-02  8.12310457e-01  1.43143661e-02]]linear2   weights:  [[-0.02986098] [-0.07522691] [-0.00509935] [-0.79988172] [-0.1247629 ] [-0.83384197] [ 0.0070327 ] [ 0.916285  ] [ 1.40066481] [ 0.02468298] [-1.16986177] [-0.17584702] [-0.22990252] [-0.18561223] [ 0.89437478] [-0.02239539]]linear2   bias:  [[0.47546356]]

       

以上就是【深度学习实战】一、Numpy手撸神经网络实现线性回归的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/57359.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月10日 05:10:01
下一篇 2025年11月10日 05:19:42

相关推荐

  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000
  • 使用CSS mask属性指定图片URL时,为什么浏览器无法加载图片?

    css mask属性未能加载图片的解决方法 使用css mask属性指定图片url时,如示例中所示: mask: url(“https://api.iconify.design/mdi:apple-icloud.svg”) center / contain no-repeat; 但是,在网络面板中却…

    2025年12月24日
    000
  • 如何用CSS Paint API为网页元素添加时尚的斑马线边框?

    为元素添加时尚的斑马线边框 在网页设计中,有时我们需要添加时尚的边框来提升元素的视觉效果。其中,斑马线边框是一种既醒目又别致的设计元素。 实现斜向斑马线边框 要实现斜向斑马线间隔圆环,我们可以使用css paint api。该api提供了强大的功能,可以让我们在元素上绘制复杂的图形。 立即学习“前端…

    2025年12月24日
    000
  • 图片如何不撑高父容器?

    如何让图片不撑高父容器? 当父容器包含不同高度的子元素时,父容器的高度通常会被最高元素撑开。如果你希望父容器的高度由文本内容撑开,避免图片对其产生影响,可以通过以下 css 解决方法: 绝对定位元素: .child-image { position: absolute; top: 0; left: …

    2025年12月24日
    000
  • 为什么自定义样式表在 Safari 中访问百度页面时无法生效?

    自定义样式表在 safari 中失效的原因 用户尝试在 safari 偏好设置中添加自定义样式表,代码如下: body { background-image: url(“/users/luxury/desktop/wallhaven-o5762l.png”) !important;} 测试后发现,在…

    2025年12月24日
    000
  • CSS 帮助

    我正在尝试将文本附加到棕色框的左侧。我不能。我不知道代码有什么问题。请帮助我。 css .hero { position: relative; bottom: 80px; display: flex; justify-content: left; align-items: start; color:…

    2025年12月24日 好文分享
    200
  • 前端代码辅助工具:如何选择最可靠的AI工具?

    前端代码辅助工具:可靠性探讨 对于前端工程师来说,在HTML、CSS和JavaScript开发中借助AI工具是司空见惯的事情。然而,并非所有工具都能提供同等的可靠性。 个性化需求 关于哪个AI工具最可靠,这个问题没有一刀切的答案。每个人的使用习惯和项目需求各不相同。以下是一些影响选择的重要因素: 立…

    2025年12月24日
    300
  • 如何用 CSS Paint API 实现倾斜的斑马线间隔圆环?

    实现斑马线边框样式:探究 css paint api 本文将探究如何使用 css paint api 实现倾斜的斑马线间隔圆环。 问题: 给定一个有多个圆圈组成的斑马线图案,如何使用 css 实现倾斜的斑马线间隔圆环? 答案: 立即学习“前端免费学习笔记(深入)”; 使用 css paint api…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信