[小白入门]基于ERFNet车道线检测入门语义分割

本文介绍基于CULane数据集和ERFnet网络实现车道线检测的入门项目。先简述语义分割任务,即像素级分类,类似机器自动“抠图”并按类上色。接着介绍CULane数据集,随后详解项目实操,包括数据处理、ERFnet网络搭建、模型训练与推理,最后展示部署效果。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

[小白入门]基于erfnet车道线检测入门语义分割 - 创想鸟

一、项目背景

AiStudio是一个很好的学习平台,我相信无时无刻都有很多像我一样的小白出于对人工智能的兴趣,而汇聚在这里。这一次,我想做一个入门级的项目来和各位同学一起学习图像分割领域的基础任务——语义分割任务。本次项目将基于Culane车道线数据集,搭建ERFnet网络,来实现简单的车道线检测。

二、分割任务简介

简单来说,其实图像分割任务可以分为以下三大类:

语义分割实例分割全景分割

在本项目中咱们将基于基础的语义分割任务进行展开,如果同学们对进阶的实例分割、全景分割感兴趣的话,在以后我也会有相关的项目分享,当然您也可以自行在aistudio上搜索,相信有很多优秀的开发者早已分享了他们的精选项目。

那么语义分割任务是什么呢?

[小白入门]基于ERFNet车道线检测入门语义分割 - 创想鸟        

总的来说,语义分割其实就是对一张图片中的物体按类别进行分割提取,本质是像素点级别上进行分类。

还是有点懵?那就再简单一点。

其实分割的概念和抠图有点像,只不过咱们抠图更多的时候是人为的手工操作,但是分割的话可以交给机器去进行实现,通俗的理解为抠图其实也并无不妥。

[小白入门]基于ERFNet车道线检测入门语义分割 - 创想鸟        

但值得注意的是!分割的结果并不是漂亮小姐姐的图像哦!我们语义分割模型输出的结果其实是类似图二的图像。并且当分割任务是对多个类别进行分割时,为了便于可视化,我们会对分割结果按照不同类别进行上色,因而上面的讲解中才得到了这样的结果。

[小白入门]基于ERFNet车道线检测入门语义分割 - 创想鸟        

“抠图”完成后,咱们按类别进行了上色。

那么接下来,就让咱们进入项目的实操部分吧,冲冲冲。

三、CULane车道线数据集简介

CULane是一个大规模且具有挑战性的车道线数据集,主要应用于行车道检测的学术研究。 它是由安装在六辆由北京不同驾驶员驾驶的不同车辆上的摄像机收集的。 收集了超过55小时的视频,并提取了133,235帧。 数据集分为88880张训练集图像,9675张验证集图像和34680张测试集图像。 测试集分为正常类别和8个具有挑战性的类别,分别对应于下面的9个示例。[小白入门]基于ERFNet车道线检测入门语义分割 - 创想鸟        

在每一帧数据图像中,作者都使用三次样条曲线手动注释行车道。 对于车道被车辆遮挡或看不见的情况,作者仍会根据上下文对车道进行注释,作者还希望算法能够区分道路上的障碍。 因此,对于在障碍物另一侧的车道没有进行标注。 在此数据集中,作者将注意力集中在四个车道标记的检测上,这在实际应用中最受关注,其他车道标记未标注。

光看介绍有点懵?那咱们找组图片深♂入一下?

[小白入门]基于ERFNet车道线检测入门语义分割 - 创想鸟        

观察Label图像不难发现,数据集对原图中的4条车道线进行了标注,其他东西通通当作背景,而我们这次项目想要达到的效果也是如此,输入一张图片,模型输出一张类似Label图像一样的车道线分割结果。

四、ERFnet网络结构

[小白入门]基于ERFNet车道线检测入门语义分割 - 创想鸟        

具体来讲, ERFnet是一种基于残差连接和可分离卷积的语义分割网络,旨在在不降低准确率的同时提高模型处理帧数的效率,可以很好的满足在自动驾驶中对于实时性的要求,且由于其轻量级的特性,在进行硬件部署时也具有很好的契合度,因而在自动驾驶及车道线检测领域具有不俗的参考意义。ERFnet网络结构中所用到的Non-bottleneck-1D残差连接块,对经典残差网络开山之作Resnet中提出的Non-bottleneck残差块作出了改进,将二维卷积拆分为了两个一维卷积,增加了非线性化的层数,以及在整体上减少参数数量。改进后的Non-bottleneck-1D残差块可以在保持相同的参数数量的情况下,扩大卷积的尺寸,增强感受的能力,很好的保证了ERFnet网络的精确度。从总体结构来看,ERFnet沿用了U-net中经典的Encoder-Decoder结构,通过Encoder编码器进行下采样(提取特征),通过Decoder解码器进行上采样(还原图像),并在其中穿插了特征融合和空洞卷积,因而在模型轻量的情况下还能保证不俗的精度。

核心模块

[小白入门]基于ERFNet车道线检测入门语义分割 - 创想鸟 [小白入门]基于ERFNet车道线检测入门语义分割 - 创想鸟        

具体实现细节可参考郑佬的项目

ERFNet:用于实时语义分割的高效残差分解卷积神经网络

当然啦,学习网络结构对于刚接触的同学来说可能比较吃力,学习是一个持续的过程,现在您可能一知半解,但随着知识的积累,我相信很快您就能理解其中的奥妙,但在此之前,难道因为不熟悉网络结构,咱们就不能进行下去了嘛? 当然不是~!

以下是我的一些简单的理解:

1. 神经网络更多讲究搭建端到端网络,什么意思呢?其实就是您给网络一个输入,然后网络给您一个输出,而数据在网络中的运算过程对一般用户来说其实是不可见过程,说这个有什么意义呢?其实是这样的,现在开源的网络结构有很多,虽然咱们可能不太清楚其中的一些高深的原理,但其实咱们可以站在用户的角度来看待这个问题,虽然咱们不懂细节,但我们会用就行!

2. 想要“走捷径”快速的使用一个陌生的网络结构,我们更多的是需要关注网络的输入和输出部分的构建,对于不同的任务,输出部分的构建往往也是不一样的。举个简单的例子,在图像分类任务中,网络的结尾会接全连接层,最后网络的输出是多个类别对应的概率值,但是在语义分割的网络中,咱们输出结果是与原图大小相等的多通道图像!其中通道数等于类别数!这是分割任务的一大特点,大家千万不要弄混了。所以结论是,对于咱们这个车道线检测项目,咱们输入的结果是形如[1,3,576,1640]的多维图像矩阵(图像是3通道图像所以通道数为3),咱们的输出结果是形如[1,2,576,1640]的多维图像矩阵,其中1是图像数量(咱们输入网络1张图像,所以输出也为1),其中2为类别数(咱们这个车道线检测任务,主要是2分类,一类是背景一类是车道线,所以这里输出结果通道数为2(分割任务的结果分类类别数等于通道数)),其中(576,1640)是输出图像的大小尺寸这与输入保持一致。

五、代码实操部分

该走的流程还是要走滴,该导的库还是要导滴。

In [1]

import randomimport paddle import paddle.nn as nnfrom paddle.nn import functional as Ffrom paddle.io import Datasetfrom paddle.vision.transforms import transforms as Timport osimport ioimport numpy as npimport cv2 as cvimport matplotlib.pyplot as pltfrom PIL import Image as PilImage%matplotlib inline

       

/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/__init__.py:107: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  from collections import MutableMapping/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/rcsetup.py:20: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  from collections import Iterable, Mapping/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/colors.py:53: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  from collections import Sized

       In [ ]

# 第一步解压数据集!unzip -oq /home/aistudio/data/data112899/CULane.zip  #第一次运行记得解压一下数据集(只运行一次就可以啦)

   In [2]

# 第二步 数据集划分,在这里咱们按8:1:1的比例划分训练集、验证集、测试集path_origin = 'CULane/JPEGImages/'path_seg = 'CULane/Annotations/'pic_dir = os.listdir(path_origin)f_train = open('CULane/train_list.txt', 'w')f_val = open('CULane/val_list.txt', 'w')f_test = open('CULane/test_list.txt','w')for i in range(len(pic_dir)):    if i % 9 == 0:        f_val.write(path_origin + pic_dir[i] + 't' + path_seg + pic_dir[i].split('.')[0] + '.png' + 'n')    elif i % 10 == 0 :        f_test.write(path_origin + pic_dir[i] + 't' + path_seg + pic_dir[i].split('.')[0] + '.png' + 'n')    else:        f_train.write(path_origin + pic_dir[i] + 't' + path_seg + pic_dir[i].split('.')[0] + '.png' + 'n')f_train.close()f_val.close()f_test.close()

   In [3]

# 第三步 测试一下生成的train_list.txt中的路径是否设置正确,根据路径读取图片进行展示。with open('CULane/train_list.txt', 'r') as f:    i = 0    for line in f.readlines():        image_path, label_path = line.strip().split('t')        image = np.array(PilImage.open(image_path))        label = np.array(PilImage.open(label_path))        if i > 2:            break        # 进行图片的展示        plt.figure()        plt.subplot(1,2,1),         plt.title('Train Image')        plt.imshow(image.astype('uint8'))        plt.axis('off')        plt.subplot(1,2,2),         plt.title('Label')        plt.imshow(label.astype('uint8'), cmap='gray')        plt.axis('off')        plt.show()        i = i + 1

       

/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/cbook/__init__.py:2349: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  if isinstance(obj, collections.Iterator):/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/cbook/__init__.py:2366: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  return list(data) if isinstance(data, collections.MappingView) else data/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/image.py:425: DeprecationWarning: np.asscalar(a) is deprecated since NumPy v1.16, use a.item() instead  a_min = np.asscalar(a_min.astype(scaled_dtype))/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/image.py:426: DeprecationWarning: np.asscalar(a) is deprecated since NumPy v1.16, use a.item() instead  a_max = np.asscalar(a_max.astype(scaled_dtype))

       

               

               

               In [4]

# 第四步 构建数据读取器IMAGE_SIZE = (576,1640)class MyDateset(Dataset):    """    数据集定义    """    def __init__(self, mode='train'):        """        构造函数        """        self.image_size = IMAGE_SIZE        self.mode = mode.lower()                self.train_images = []        self.label_images = []        with open('CULane/{}_list.txt'.format(self.mode), 'r') as f:            for line in f.readlines():                image, label = line.strip().split('t')                self.train_images.append(image)                self.label_images.append(label)            def _load_img(self, path, color_mode='rgb', transforms=[]):        """        统一的图像处理接口封装,用于规整图像大小和通道        """        with open(path, 'rb') as f:            img = PilImage.open(io.BytesIO(f.read()))            if color_mode == 'grayscale':                if img.mode not in ('L', 'I;16', 'I'):                    img = img.convert('L')            elif color_mode == 'rgba':                if img.mode != 'RGBA':                    img = img.convert('RGBA')            elif color_mode == 'rgb':                if img.mode != 'RGB':                    img = img.convert('RGB')            else:                raise ValueError('color_mode must be "grayscale", "rgb", or "rgba"')                        return T.Compose([T.Resize(self.image_size)] + transforms)(img)    def __getitem__(self, idx):        """        返回 image, label        """        train_image = self._load_img(self.train_images[idx],                                      transforms=[                                         T.Transpose(),                                          T.Normalize(mean=127.5, std=127.5)                                     ]) # 加载原始图像        label_image = self._load_img(self.label_images[idx],                                      color_mode='grayscale',                                     transforms=[T.Grayscale()]) # 加载Label图像            # 返回image, label        train_image = np.array(train_image, dtype='float32')        label_image = np.array(label_image, dtype='int64')        return train_image, label_image            def __len__(self):        """        返回数据集总数        """        return len(self.train_images)

   In [5]

# 第五步 模型网络搭建,这里采用了ERFnet网络,当然啦实在看不懂也可以先暂时跳过,您只需要知道输入和输出的结果是什么就行。class non_bottleneck_1d(paddle.nn.Layer):    def __init__(self, chann, dropprob, dilated):        super().__init__()        self.conv3x1_1 = paddle.nn.Conv2D(in_channels=chann, out_channels=chann, kernel_size=(3, 1), stride=1, padding=(1, 0), bias_attr=True)        self.conv1x3_1 = paddle.nn.Conv2D(in_channels=chann, out_channels=chann, kernel_size=(1, 3), stride=1, padding=(0, 1), bias_attr=True)        self.bn1 = paddle.nn.BatchNorm(chann, epsilon=1e-03)        self.conv3x1_2 = paddle.nn.Conv2D(in_channels=chann, out_channels=chann, kernel_size=(3, 1), stride=1, padding=(1 * dilated, 0), bias_attr=True,                                              dilation=(dilated, 1))        self.conv1x3_2 = paddle.nn.Conv2D(in_channels=chann, out_channels=chann, kernel_size=(1, 3), stride=1, padding=(0, 1 * dilated), bias_attr=True,                                              dilation=(1, dilated))        self.bn2 = paddle.nn.BatchNorm(chann, epsilon=1e-03)        self.dropout = paddle.nn.Dropout(dropprob)        self.p = dropprob    def forward(self, input):        output = self.conv3x1_1(input)        output = paddle.nn.functional.relu(output)        output = self.conv1x3_1(output)        output = self.bn1(output)        output = paddle.nn.functional.relu(output)        output = self.conv3x1_2(output)        output = paddle.nn.functional.relu(output)        output = self.conv1x3_2(output)        output = self.bn2(output)        if self.p != 0:            output = self.dropout(output)        return paddle.nn.functional.relu(output + input)import paddleclass non_bottleneck_1d(paddle.nn.Layer):    def __init__(self, chann, dropprob, dilated):        super().__init__()        self.conv3x1_1 = paddle.nn.Conv2D(in_channels=chann, out_channels=chann, kernel_size=(3, 1), stride=1, padding=(1, 0), bias_attr=True)        self.conv1x3_1 = paddle.nn.Conv2D(in_channels=chann, out_channels=chann, kernel_size=(1, 3), stride=1, padding=(0, 1), bias_attr=True)        self.bn1 = paddle.nn.BatchNorm(chann, epsilon=1e-03)        self.conv3x1_2 = paddle.nn.Conv2D(in_channels=chann, out_channels=chann, kernel_size=(3, 1), stride=1, padding=(1 * dilated, 0), bias_attr=True,                                              dilation=(dilated, 1))        self.conv1x3_2 = paddle.nn.Conv2D(in_channels=chann, out_channels=chann, kernel_size=(1, 3), stride=1, padding=(0, 1 * dilated), bias_attr=True,                                              dilation=(1, dilated))        self.bn2 = paddle.nn.BatchNorm(chann, epsilon=1e-03)        self.dropout = paddle.nn.Dropout(dropprob)        self.p = dropprob    def forward(self, input):        output = self.conv3x1_1(input)        output = paddle.nn.functional.relu(output)        output = self.conv1x3_1(output)        output = self.bn1(output)        output = paddle.nn.functional.relu(output)        output = self.conv3x1_2(output)        output = paddle.nn.functional.relu(output)        output = self.conv1x3_2(output)        output = self.bn2(output)        if self.p != 0:            output = self.dropout(output)        return paddle.nn.functional.relu(output + input)class DownsamplerBlock(paddle.nn.Layer):    def __init__(self, ninput, noutput):        super().__init__()        self.conv = paddle.nn.Conv2D(in_channels=ninput, out_channels=noutput-ninput, kernel_size=3,                                     stride=2, padding=1, bias_attr=True)        self.pool = paddle.nn.MaxPool2D(kernel_size=2, stride=2)        self.bn = paddle.nn.BatchNorm(noutput, epsilon=1e-3)    def forward(self, input):        output = paddle.concat(x=[self.conv(input), self.pool(input)], axis=1)        output = self.bn(output)        return paddle.nn.functional.relu(output)class Encoder(paddle.nn.Layer):    def __init__(self, num_classes):        super().__init__()        self.initial_block = DownsamplerBlock(3, 16)        self.layers = paddle.nn.LayerList()        self.layers.append(DownsamplerBlock(16, 64))        for x in range(0, 5):  # 5 times            self.layers.append(non_bottleneck_1d(64, 1, 1))        self.layers.append(DownsamplerBlock(64, 128))        for x in range(0, 2):  # 2 times            self.layers.append(non_bottleneck_1d(128, 1, 2))            self.layers.append(non_bottleneck_1d(128, 1, 4))            self.layers.append(non_bottleneck_1d(128, 1, 8))            self.layers.append(non_bottleneck_1d(128, 1, 16))        self.output_conv = paddle.nn.Conv2D(in_channels=128, out_channels=num_classes, kernel_size=1, stride=1, padding=0, bias_attr=True)    def forward(self, input, predict=False):        output = self.initial_block(input)        for layer in self.layers:            output = layer(output)        if predict:            output = self.output_conv(output)        return outputclass UpsamplerBlock(paddle.nn.Layer):    def __init__(self, ninput, noutput, output_size=[16, 16]):        super().__init__()        self.conv = paddle.nn.Conv2DTranspose(ninput, noutput, kernel_size=3, stride=2, padding=1, bias_attr=True)        self.bn = paddle.nn.BatchNorm(noutput, epsilon=1e-3)        self.output_size = output_size    def forward(self, input):        output = self.conv(input, output_size=self.output_size)        output = self.bn(output)        return paddle.nn.functional.relu(output)class Decoder(paddle.nn.Layer):    def __init__(self, num_classes, raw_size=[576, 1640]):        super().__init__()        self.layers = paddle.nn.LayerList()        self.raw_size = raw_size        self.layers.append(UpsamplerBlock(128, 64, output_size=[raw_size[0] // 4, raw_size[1] // 4]))        self.layers.append(non_bottleneck_1d(64, 0, 1))        self.layers.append(non_bottleneck_1d(64, 0, 1))        self.layers.append(UpsamplerBlock(64, 16, output_size=[raw_size[0] // 2, raw_size[1] // 2]))        self.layers.append(non_bottleneck_1d(16, 0, 1))        self.layers.append(non_bottleneck_1d(16, 0, 1))        self.output_conv = paddle.nn.Conv2DTranspose(16, num_classes, kernel_size=2, stride=2, padding=0, bias_attr=True)    def forward(self, input):        output = input        for layer in self.layers:            output = layer(output)        output = self.output_conv(output, output_size=[self.raw_size[0], self.raw_size[1]])        return outputclass ERFNet(paddle.nn.Layer):    def __init__(self, num_classes, raw_size=[576, 1640]):        super().__init__()        self.encoder = Encoder(num_classes)        self.decoder = Decoder(num_classes, raw_size=raw_size)    def forward(self, input):        output = self.encoder(input)        return self.decoder.forward(output)

   In [6]

# 第六步 查看一下网络结构,测试一下能不能跑通。paddle.summary(ERFNet(2),(1,3,576,1640))

       

W1122 09:06:07.775314  1189 device_context.cc:447] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 12.0, Runtime API Version: 10.1W1122 09:06:07.780476  1189 device_context.cc:465] device: 0, cuDNN Version: 7.6.

       

--------------------------------------------------------------------------------    Layer (type)         Input Shape          Output Shape         Param #    ================================================================================      Conv2D-1       [[1, 3, 576, 1640]]   [1, 13, 288, 820]         364          MaxPool2D-1      [[1, 3, 576, 1640]]    [1, 3, 288, 820]          0           BatchNorm-1      [[1, 16, 288, 820]]   [1, 16, 288, 820]         64        DownsamplerBlock-1  [[1, 3, 576, 1640]]   [1, 16, 288, 820]          0             Conv2D-2       [[1, 16, 288, 820]]   [1, 48, 144, 410]        6,960         MaxPool2D-2      [[1, 16, 288, 820]]   [1, 16, 144, 410]          0           BatchNorm-2      [[1, 64, 144, 410]]   [1, 64, 144, 410]         256       DownsamplerBlock-2  [[1, 16, 288, 820]]   [1, 64, 144, 410]          0             Conv2D-3       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352           Conv2D-4       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-3      [[1, 64, 144, 410]]   [1, 64, 144, 410]         256            Conv2D-5       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352           Conv2D-6       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-4      [[1, 64, 144, 410]]   [1, 64, 144, 410]         256           Dropout-1       [[1, 64, 144, 410]]   [1, 64, 144, 410]          0       non_bottleneck_1d-1  [[1, 64, 144, 410]]   [1, 64, 144, 410]          0             Conv2D-7       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352           Conv2D-8       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-5      [[1, 64, 144, 410]]   [1, 64, 144, 410]         256            Conv2D-9       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352          Conv2D-10       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-6      [[1, 64, 144, 410]]   [1, 64, 144, 410]         256           Dropout-2       [[1, 64, 144, 410]]   [1, 64, 144, 410]          0       non_bottleneck_1d-2  [[1, 64, 144, 410]]   [1, 64, 144, 410]          0            Conv2D-11       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352          Conv2D-12       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-7      [[1, 64, 144, 410]]   [1, 64, 144, 410]         256           Conv2D-13       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352          Conv2D-14       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-8      [[1, 64, 144, 410]]   [1, 64, 144, 410]         256           Dropout-3       [[1, 64, 144, 410]]   [1, 64, 144, 410]          0       non_bottleneck_1d-3  [[1, 64, 144, 410]]   [1, 64, 144, 410]          0            Conv2D-15       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352          Conv2D-16       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-9      [[1, 64, 144, 410]]   [1, 64, 144, 410]         256           Conv2D-17       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352          Conv2D-18       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-10     [[1, 64, 144, 410]]   [1, 64, 144, 410]         256           Dropout-4       [[1, 64, 144, 410]]   [1, 64, 144, 410]          0       non_bottleneck_1d-4  [[1, 64, 144, 410]]   [1, 64, 144, 410]          0            Conv2D-19       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352          Conv2D-20       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-11     [[1, 64, 144, 410]]   [1, 64, 144, 410]         256           Conv2D-21       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352          Conv2D-22       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-12     [[1, 64, 144, 410]]   [1, 64, 144, 410]         256           Dropout-5       [[1, 64, 144, 410]]   [1, 64, 144, 410]          0       non_bottleneck_1d-5  [[1, 64, 144, 410]]   [1, 64, 144, 410]          0            Conv2D-23       [[1, 64, 144, 410]]    [1, 64, 72, 205]       36,928         MaxPool2D-3      [[1, 64, 144, 410]]    [1, 64, 72, 205]          0           BatchNorm-13     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512       DownsamplerBlock-3  [[1, 64, 144, 410]]   [1, 128, 72, 205]          0            Conv2D-24       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-25       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-14     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Conv2D-26       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-27       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-15     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Dropout-6       [[1, 128, 72, 205]]   [1, 128, 72, 205]          0       non_bottleneck_1d-6  [[1, 128, 72, 205]]   [1, 128, 72, 205]          0            Conv2D-28       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-29       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-16     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Conv2D-30       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-31       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-17     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Dropout-7       [[1, 128, 72, 205]]   [1, 128, 72, 205]          0       non_bottleneck_1d-7  [[1, 128, 72, 205]]   [1, 128, 72, 205]          0            Conv2D-32       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-33       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-18     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Conv2D-34       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-35       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-19     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Dropout-8       [[1, 128, 72, 205]]   [1, 128, 72, 205]          0       non_bottleneck_1d-8  [[1, 128, 72, 205]]   [1, 128, 72, 205]          0            Conv2D-36       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-37       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-20     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Conv2D-38       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-39       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-21     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Dropout-9       [[1, 128, 72, 205]]   [1, 128, 72, 205]          0       non_bottleneck_1d-9  [[1, 128, 72, 205]]   [1, 128, 72, 205]          0            Conv2D-40       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-41       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-22     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Conv2D-42       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-43       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-23     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Dropout-10      [[1, 128, 72, 205]]   [1, 128, 72, 205]          0       non_bottleneck_1d-10 [[1, 128, 72, 205]]   [1, 128, 72, 205]          0            Conv2D-44       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-45       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-24     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Conv2D-46       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-47       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-25     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Dropout-11      [[1, 128, 72, 205]]   [1, 128, 72, 205]          0       non_bottleneck_1d-11 [[1, 128, 72, 205]]   [1, 128, 72, 205]          0            Conv2D-48       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-49       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-26     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Conv2D-50       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-51       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-27     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Dropout-12      [[1, 128, 72, 205]]   [1, 128, 72, 205]          0       non_bottleneck_1d-12 [[1, 128, 72, 205]]   [1, 128, 72, 205]          0            Conv2D-52       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-53       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-28     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Conv2D-54       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280          Conv2D-55       [[1, 128, 72, 205]]   [1, 128, 72, 205]       49,280         BatchNorm-29     [[1, 128, 72, 205]]   [1, 128, 72, 205]         512           Dropout-13      [[1, 128, 72, 205]]   [1, 128, 72, 205]          0       non_bottleneck_1d-13 [[1, 128, 72, 205]]   [1, 128, 72, 205]          0            Encoder-1       [[1, 3, 576, 1640]]   [1, 128, 72, 205]          0        Conv2DTranspose-1   [[1, 128, 72, 205]]   [1, 64, 144, 410]       73,792         BatchNorm-30     [[1, 64, 144, 410]]   [1, 64, 144, 410]         256        UpsamplerBlock-1   [[1, 128, 72, 205]]   [1, 64, 144, 410]          0            Conv2D-57       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352          Conv2D-58       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-31     [[1, 64, 144, 410]]   [1, 64, 144, 410]         256           Conv2D-59       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352          Conv2D-60       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-32     [[1, 64, 144, 410]]   [1, 64, 144, 410]         256      non_bottleneck_1d-14 [[1, 64, 144, 410]]   [1, 64, 144, 410]          0            Conv2D-61       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352          Conv2D-62       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-33     [[1, 64, 144, 410]]   [1, 64, 144, 410]         256           Conv2D-63       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352          Conv2D-64       [[1, 64, 144, 410]]   [1, 64, 144, 410]       12,352         BatchNorm-34     [[1, 64, 144, 410]]   [1, 64, 144, 410]         256      non_bottleneck_1d-15 [[1, 64, 144, 410]]   [1, 64, 144, 410]          0        Conv2DTranspose-2   [[1, 64, 144, 410]]   [1, 16, 288, 820]        9,232         BatchNorm-35     [[1, 16, 288, 820]]   [1, 16, 288, 820]         64         UpsamplerBlock-2   [[1, 64, 144, 410]]   [1, 16, 288, 820]          0            Conv2D-65       [[1, 16, 288, 820]]   [1, 16, 288, 820]         784           Conv2D-66       [[1, 16, 288, 820]]   [1, 16, 288, 820]         784          BatchNorm-36     [[1, 16, 288, 820]]   [1, 16, 288, 820]         64            Conv2D-67       [[1, 16, 288, 820]]   [1, 16, 288, 820]         784           Conv2D-68       [[1, 16, 288, 820]]   [1, 16, 288, 820]         784          BatchNorm-37     [[1, 16, 288, 820]]   [1, 16, 288, 820]         64       non_bottleneck_1d-16 [[1, 16, 288, 820]]   [1, 16, 288, 820]          0            Conv2D-69       [[1, 16, 288, 820]]   [1, 16, 288, 820]         784           Conv2D-70       [[1, 16, 288, 820]]   [1, 16, 288, 820]         784          BatchNorm-38     [[1, 16, 288, 820]]   [1, 16, 288, 820]         64            Conv2D-71       [[1, 16, 288, 820]]   [1, 16, 288, 820]         784           Conv2D-72       [[1, 16, 288, 820]]   [1, 16, 288, 820]         784          BatchNorm-39     [[1, 16, 288, 820]]   [1, 16, 288, 820]         64       non_bottleneck_1d-17 [[1, 16, 288, 820]]   [1, 16, 288, 820]          0        Conv2DTranspose-3   [[1, 16, 288, 820]]   [1, 2, 576, 1640]         130      ================================================================================Total params: 2,069,678Trainable params: 2,056,494Non-trainable params: 13,184--------------------------------------------------------------------------------Input size (MB): 10.81Forward/backward pass size (MB): 3300.82Params size (MB): 7.90Estimated Total Size (MB): 3319.53--------------------------------------------------------------------------------

       

{'total_params': 2069678, 'trainable_params': 2056494}

               In [7]

# 第七步 实例化训练集、验证集、测试集train_dataset =  MyDateset(mode='train') # 训练数据集val_dataset =  MyDateset(mode='val') # 验证数据集test_dataset =  MyDateset(mode='test') # 测试数据集train_dataloader = paddle.io.DataLoader(    train_dataset,    batch_size=8,    shuffle=True,    drop_last=False)val_dataloader = paddle.io.DataLoader(    val_dataset,    batch_size=1,    shuffle=True,    drop_last=False)test_dataloader = paddle.io.DataLoader(    test_dataset,    batch_size=1,    shuffle=True,    drop_last=False)

   In [8]

# 配置模型、loss函数、优化器model = ERFNet(num_classes=2)model.train()loss_fn = paddle.nn.CrossEntropyLoss(axis=1)max_epoch=1          # 这里为了方便演示代码 设置了epoch数为1 要复现项目效果 请把epoch数设置为50scheduler = paddle.optimizer.lr.CosineAnnealingDecay(learning_rate=0.001, T_max=max_epoch)opt = paddle.optimizer.Adam(learning_rate=scheduler, parameters=model.parameters())# 可用于加载之前训练的模型文件# model_state_dict = paddle.load("save_model/epoch_3.pdparams")# opt_state_dict = paddle.load("save_model/epoch_3.pdopt")# model.set_state_dict(model_state_dict)# opt.set_state_dict(opt_state_dict)

   In [9]

# 模型训练并记录os.environ['CUDA_VISIBLE_DEVICES'] = '0'f_log = open('log.txt', 'a')for epoch in range(0,max_epoch):    for step, data in enumerate(train_dataloader):        img, label = data        pre = model(img)        loss = loss_fn(pre, label)        predicts = paddle.argmax(pre, axis=1)        # 计算miou        miou,wrong,correct=paddle.fluid.layers.mean_iou(predicts,label,2)        loss.backward()        opt.step()        opt.clear_gradients()        if step % 100 == 0 and step!=0:            temp ="epoch: {}, step : {}, loss is: {}, miou is: {}".format(epoch, step, loss.numpy(),miou.numpy())            print(temp)            f_log.write(temp+'n')    paddle.save(model.state_dict(),"save_model/epoch_{}.pdparams".format(epoch))    paddle.save(opt.state_dict(),"save_model/epoch_{}.pdopt".format(epoch))f_log.close()

       

epoch: 0, step : 100, loss is: [0.13927686], miou is: [0.4847293]epoch: 0, step : 200, loss is: [0.13330099], miou is: [0.48230854]epoch: 0, step : 300, loss is: [0.10703911], miou is: [0.4881684]epoch: 0, step : 400, loss is: [0.08439594], miou is: [0.49422544]epoch: 0, step : 500, loss is: [0.07835685], miou is: [0.49277282]epoch: 0, step : 600, loss is: [0.13210864], miou is: [0.48121905]epoch: 0, step : 700, loss is: [0.09453978], miou is: [0.4880681]epoch: 0, step : 800, loss is: [0.09746557], miou is: [0.48614118]epoch: 0, step : 900, loss is: [0.12714268], miou is: [0.4805257]epoch: 0, step : 1000, loss is: [0.10404535], miou is: [0.48679313]epoch: 0, step : 1100, loss is: [0.12627521], miou is: [0.4809]epoch: 0, step : 1200, loss is: [0.11702421], miou is: [0.48320922]epoch: 0, step : 1300, loss is: [0.0946762], miou is: [0.48671177]epoch: 0, step : 1400, loss is: [0.11747885], miou is: [0.48124674]epoch: 0, step : 1500, loss is: [0.10730279], miou is: [0.48404324]epoch: 0, step : 1600, loss is: [0.13672356], miou is: [0.4818533]epoch: 0, step : 1700, loss is: [0.12087876], miou is: [0.48356727]epoch: 0, step : 1800, loss is: [0.10689122], miou is: [0.48393604]epoch: 0, step : 1900, loss is: [0.09504438], miou is: [0.4867893]epoch: 0, step : 2000, loss is: [0.11099294], miou is: [0.48421988]epoch: 0, step : 2100, loss is: [0.10703284], miou is: [0.48620635]epoch: 0, step : 2200, loss is: [0.10188617], miou is: [0.48697066]epoch: 0, step : 2300, loss is: [0.07738338], miou is: [0.4924985]epoch: 0, step : 2400, loss is: [0.06830326], miou is: [0.5553771]epoch: 0, step : 2500, loss is: [0.11509577], miou is: [0.56002903]epoch: 0, step : 2600, loss is: [0.09727462], miou is: [0.58344084]epoch: 0, step : 2700, loss is: [0.09854273], miou is: [0.563583]epoch: 0, step : 2800, loss is: [0.09234307], miou is: [0.58188295]epoch: 0, step : 2900, loss is: [0.0960774], miou is: [0.56114256]epoch: 0, step : 3000, loss is: [0.08726992], miou is: [0.55743444]epoch: 0, step : 3100, loss is: [0.10137159], miou is: [0.5864695]epoch: 0, step : 3200, loss is: [0.10453519], miou is: [0.5808536]epoch: 0, step : 3300, loss is: [0.11421765], miou is: [0.5466621]epoch: 0, step : 3400, loss is: [0.11816304], miou is: [0.54667276]epoch: 0, step : 3500, loss is: [0.08592777], miou is: [0.5695046]epoch: 0, step : 3600, loss is: [0.10629157], miou is: [0.5724659]epoch: 0, step : 3700, loss is: [0.08172587], miou is: [0.525596]epoch: 0, step : 3800, loss is: [0.06315774], miou is: [0.57792294]epoch: 0, step : 3900, loss is: [0.10147866], miou is: [0.5600542]epoch: 0, step : 4000, loss is: [0.08548972], miou is: [0.6008725]epoch: 0, step : 4100, loss is: [0.07798672], miou is: [0.62052643]epoch: 0, step : 4200, loss is: [0.08380488], miou is: [0.60859656]epoch: 0, step : 4300, loss is: [0.10450178], miou is: [0.591514]epoch: 0, step : 4400, loss is: [0.08817854], miou is: [0.59015864]epoch: 0, step : 4500, loss is: [0.10661422], miou is: [0.5781183]epoch: 0, step : 4600, loss is: [0.09698336], miou is: [0.5511778]epoch: 0, step : 4700, loss is: [0.09957878], miou is: [0.61045104]epoch: 0, step : 4800, loss is: [0.10301865], miou is: [0.5733046]epoch: 0, step : 4900, loss is: [0.08925698], miou is: [0.5949598]epoch: 0, step : 5000, loss is: [0.08743063], miou is: [0.59802926]epoch: 0, step : 5100, loss is: [0.06179001], miou is: [0.6367101]epoch: 0, step : 5200, loss is: [0.10025749], miou is: [0.58668095]epoch: 0, step : 5300, loss is: [0.09665603], miou is: [0.57429576]epoch: 0, step : 5400, loss is: [0.12474185], miou is: [0.54220945]epoch: 0, step : 5500, loss is: [0.06253532], miou is: [0.6440188]epoch: 0, step : 5600, loss is: [0.09304313], miou is: [0.5715176]epoch: 0, step : 5700, loss is: [0.09525367], miou is: [0.5625985]epoch: 0, step : 5800, loss is: [0.08387703], miou is: [0.5741054]epoch: 0, step : 5900, loss is: [0.08723761], miou is: [0.59803224]epoch: 0, step : 6000, loss is: [0.09758568], miou is: [0.6223379]epoch: 0, step : 6100, loss is: [0.11697459], miou is: [0.57924354]epoch: 0, step : 6200, loss is: [0.100724], miou is: [0.5860153]epoch: 0, step : 6300, loss is: [0.08684465], miou is: [0.61564314]epoch: 0, step : 6400, loss is: [0.09025575], miou is: [0.62548506]epoch: 0, step : 6500, loss is: [0.05869177], miou is: [0.6868839]epoch: 0, step : 6600, loss is: [0.08888834], miou is: [0.6237665]epoch: 0, step : 6700, loss is: [0.06414994], miou is: [0.59068704]epoch: 0, step : 6800, loss is: [0.09091921], miou is: [0.5837776]epoch: 0, step : 6900, loss is: [0.0872962], miou is: [0.5957216]epoch: 0, step : 7000, loss is: [0.10638998], miou is: [0.56399274]epoch: 0, step : 7100, loss is: [0.09597596], miou is: [0.5542962]epoch: 0, step : 7200, loss is: [0.0508446], miou is: [0.57402736]epoch: 0, step : 7300, loss is: [0.08191186], miou is: [0.6318141]epoch: 0, step : 7400, loss is: [0.08166245], miou is: [0.59082395]epoch: 0, step : 7500, loss is: [0.09494389], miou is: [0.61808616]epoch: 0, step : 7600, loss is: [0.08884145], miou is: [0.5611312]epoch: 0, step : 7700, loss is: [0.10616488], miou is: [0.5547414]epoch: 0, step : 7800, loss is: [0.09759728], miou is: [0.62624496]epoch: 0, step : 7900, loss is: [0.08903372], miou is: [0.6205214]epoch: 0, step : 8000, loss is: [0.10339966], miou is: [0.5819689]epoch: 0, step : 8100, loss is: [0.10582763], miou is: [0.55487573]epoch: 0, step : 8200, loss is: [0.08446056], miou is: [0.62681633]epoch: 0, step : 8300, loss is: [0.0832355], miou is: [0.6156939]epoch: 0, step : 8400, loss is: [0.09023587], miou is: [0.6016093]epoch: 0, step : 8500, loss is: [0.08267266], miou is: [0.59566665]epoch: 0, step : 8600, loss is: [0.10186594], miou is: [0.56223583]epoch: 0, step : 8700, loss is: [0.0877626], miou is: [0.63271546]epoch: 0, step : 8800, loss is: [0.11042956], miou is: [0.580356]

       In [10]

# 模型训练完后,咱们可以用动态图的形式保存,这样一来的话,下次加载模型就不需要重新加载网络结构啦from paddle.static import InputSpecpath = "./export_model/MyERFnet"paddle.jit.save(    layer=model,    path=path,    input_spec=[InputSpec(shape=[1,3,576,1640])])

       

/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/layers/utils.py:77: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  return (isinstance(seq, collections.Sequence) and

       

六、模型推理部分

In [13]

# 加载模型path = "./export_model/MyERFnet_b"loaded_layer = paddle.jit.load(path)loaded_layer.eval()

   In [14]

for i in range(0,5):    img = cv.imread("/home/aistudio/CULane/JPEGImages/{}.jpg".format(i))    b, g, r = cv.split(img)    img = cv.merge([r, g, b])    orign = img    orign = cv.resize(orign,(1640,576))        transforms =T.Compose([        T.Resize((576,1640)),        T.Transpose(),         T.Normalize(mean=127.5, std=127.5)                ])    img = transforms(img)    img = paddle.to_tensor(img)    img = paddle.unsqueeze(img, axis=0)    result = loaded_layer(img)    result = paddle.squeeze(result, axis=0)    result = paddle.transpose(result, perm=[1, 2, 0])    result = np.array(result)    result = np.argmax(result,-1)    plt.figure()    plt.subplot(1,2,1),     plt.title('img')    plt.imshow(orign.astype('uint8'))    plt.axis('off')    plt.subplot(1,2,2),     plt.title('predict')    plt.imshow(result.astype('uint8'), cmap='gray')    plt.axis('off')    plt.show()

       

               

               

               

               

               

七、本地部署效果演示

   

以上就是[小白入门]基于ERFNet车道线检测入门语义分割的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/52114.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月9日 02:33:32
下一篇 2025年11月9日 02:33:47

相关推荐

  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • 旋转长方形后,如何计算其相对于画布左上角的轴距?

    绘制长方形并旋转,计算旋转后轴距 在拥有 1920×1080 画布中,放置一个宽高为 200×20 的长方形,其坐标位于 (100, 100)。当以任意角度旋转长方形时,如何计算它相对于画布左上角的 x、y 轴距? 以下代码提供了一个计算旋转后长方形轴距的解决方案: const x = 200;co…

    2025年12月24日
    000
  • 旋转长方形后,如何计算它与画布左上角的xy轴距?

    旋转后长方形在画布上的xy轴距计算 在画布中添加一个长方形,并将其旋转任意角度,如何计算旋转后的长方形与画布左上角之间的xy轴距? 问题分解: 要计算旋转后长方形的xy轴距,需要考虑旋转对长方形宽高和位置的影响。首先,旋转会改变长方形的长和宽,其次,旋转会改变长方形的中心点位置。 求解方法: 计算旋…

    2025年12月24日
    000
  • 旋转长方形后如何计算其在画布上的轴距?

    旋转长方形后计算轴距 假设长方形的宽、高分别为 200 和 20,初始坐标为 (100, 100),我们将它旋转一个任意角度。根据旋转矩阵公式,旋转后的新坐标 (x’, y’) 可以通过以下公式计算: x’ = x * cos(θ) – y * sin(θ)y’ = x * …

    2025年12月24日
    000
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 如何计算旋转后长方形在画布上的轴距?

    旋转后长方形与画布轴距计算 在给定的画布中,有一个长方形,在随机旋转一定角度后,如何计算其在画布上的轴距,即距离左上角的距离? 以下提供一种计算长方形相对于画布左上角的新轴距的方法: const x = 200; // 初始 x 坐标const y = 90; // 初始 y 坐标const w =…

    2025年12月24日
    200
  • CSS元素设置em和transition后,为何载入页面无放大效果?

    css元素设置em和transition后,为何载入无放大效果 很多开发者在设置了em和transition后,却发现元素载入页面时无放大效果。本文将解答这一问题。 原问题:在视频演示中,将元素设置如下,载入页面会有放大效果。然而,在个人尝试中,并未出现该效果。这是由于macos和windows系统…

    2025年12月24日
    200
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 如何计算旋转后的长方形在画布上的 XY 轴距?

    旋转长方形后计算其画布xy轴距 在创建的画布上添加了一个长方形,并提供其宽、高和初始坐标。为了视觉化旋转效果,还提供了一些旋转特定角度后的图片。 问题是如何计算任意角度旋转后,这个长方形的xy轴距。这涉及到使用三角学来计算旋转后的坐标。 以下是一个 javascript 代码示例,用于计算旋转后长方…

    2025年12月24日
    000
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信