【AI达人特训营】基于全卷积神经网络的图像分类复现

本文将ResNet50的全连接层替换为全卷积层构建ResNet50-FCN,在CIFAR-10数据集上训练,并与原始ResNet50对比。两者采用相同参数(100轮、lr=0.01等),结果显示ResNet50-FCN准确率更高,上升过程更平滑,抖动更小,验证了全卷积层在保留空间信息等方面的优势。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

【ai达人特训营】基于全卷积神经网络的图像分类复现 - 创想鸟

ResNet50-FCN

论文地址:https://arxiv.org/abs/1411.4038

FCN:Fully Convolutional Networks

全卷积模型:本项目将CNN模式后面的全连接层换成卷积层,所以整个网络都是卷积层。其最后输出的是一张已经标记好的热图,而不是一个概率值。 通常的CNN网络中,在最后都会有几层全连接网络来融合特征信息,然后再对融合后的特征信息进行softmax分类,如下图所示:

【AI达人特训营】基于全卷积神经网络的图像分类复现 - 创想鸟        

假设最后一层的feature_map的大小是7x7x512,那么全连接层做的事就是用4096个7x7x512的滤波器去卷积这个最后的feature_map。所以可想而知这个参数量是很大的!!

【AI达人特训营】基于全卷积神经网络的图像分类复现 - 创想鸟        

但是全卷积网络就简单多了。FCN的做法是将最后的全连接层替换为4096个1x1x512的卷积核,所以最后得出来的就是一个二维的图像,然后再对这个二维图像进行上采样(反卷积),然后再对最后反卷积的图像的每个像素点进行softmax分类。
我们都知道卷积层后的全连接目的是将 卷积输出的二维特征图(feature map)转化成(N×1N×1)一维的一个向量因为传统的卷积神经网络的输出都是分类(一般都是一个概率值),也就是几个类别的概率甚至就是一个类别号,那么全连接层就是高度提纯的特征了,方便交给最后的分类器或者回归。
根据全连接的目的,我们完全可以利用卷积层代替全连接层,在输入端使用 M×MM×M 大小的卷积核将数据“扁平化处理”,在使用 1×11×1 卷积核对数据进行降维操作,最终卷积核的通道数即是我们预测数据的维度。这样在输入端不将数据进行扁平化处理,还可以使得图片保留其空间信息:

【AI达人特训营】基于全卷积神经网络的图像分类复现 - 创想鸟        

使用全卷积层的优点:

全卷积层能够兼容不同大小的尺寸输入。与global avg pooling类似,可以大大减少网络参数量

数据集介绍:Cifar10

链接:http://www.cs.toronto.edu/~kriz/cifar.html

【AI达人特训营】基于全卷积神经网络的图像分类复现 - 创想鸟        

CIFAR-10是一个更接近普适物体的彩色图像数据集。CIFAR-10 是由Hinton 的学生Alex Krizhevsky 和Ilya Sutskever 整理的一个用于识别普适物体的小型数据集。一共包含10 个类别的RGB彩色图片:飞机(airplane)、汽车(automobile)、鸟类(bird)、猫(cat)、鹿(deer)、狗(dog)、蛙类(frog)、马(horse)、船(ship)和卡车(truck).

每个图片的尺寸为32×3232×32,每个类别有6000个图像,数据集中一共有50000张训练图片和10000张测试图片。

代码复现

1.引入依赖包

In [1]

from __future__ import divisionfrom __future__ import print_functionimport paddleimport paddle.nn as nnfrom paddle.nn import functional as Ffrom paddle.utils.download import get_weights_path_from_urlimport pickleimport numpy as npfrom paddle import callbacksfrom paddle.vision.transforms import (    ToTensor, RandomHorizontalFlip, RandomResizedCrop, SaturationTransform, Compose,    HueTransform, BrightnessTransform, ContrastTransform, RandomCrop, Normalize, RandomRotation, Resize)from paddle.vision.datasets import Cifar10from paddle.io import DataLoaderfrom paddle.optimizer.lr import CosineAnnealingDecay, MultiStepDecay, LinearWarmupimport random

   

2.定义ResNet50-FCN网络

本代码参考Paddleclas实现,代码中将分类类别设定为100类

In [2]

__all__ = []model_urls = {    'resnet18': ('https://paddle-hapi.bj.bcebos.com/models/resnet18.pdparams',                 'cf548f46534aa3560945be4b95cd11c4'),    'resnet34': ('https://paddle-hapi.bj.bcebos.com/models/resnet34.pdparams',                 '8d2275cf8706028345f78ac0e1d31969'),    'resnet50': ('https://paddle-hapi.bj.bcebos.com/models/resnet50.pdparams',                 'ca6f485ee1ab0492d38f323885b0ad80'),    'resnet101': ('https://paddle-hapi.bj.bcebos.com/models/resnet101.pdparams',                  '02f35f034ca3858e1e54d4036443c92d'),    'resnet152': ('https://paddle-hapi.bj.bcebos.com/models/resnet152.pdparams',                  '7ad16a2f1e7333859ff986138630fd7a'),}class BottleneckBlock(nn.Layer):    expansion = 4    def __init__(self,                 inplanes,                 planes,                 stride=1,                 downsample=None,                 groups=1,                 base_width=64,                 dilation=1,                 norm_layer=None):        super(BottleneckBlock, self).__init__()        if norm_layer is None:            norm_layer = nn.BatchNorm2D        width = int(planes * (base_width / 64.)) * groups        self.width = width        self.conv1 = nn.Conv2D(inplanes, width, 1, bias_attr=False)        self.bn1 = norm_layer(width)        self.conv2 = nn.Conv2D(            width,            width,            3,            padding=dilation,            stride=stride,            groups=groups,            dilation=dilation,            bias_attr=False)        self.bn2 = norm_layer(width)        self.conv3 = nn.Conv2D(            width, planes * self.expansion, 1, bias_attr=False)        self.width_2 = planes * self.expansion        self.bn3 = norm_layer(planes * self.expansion)        self.relu = nn.ReLU()        self.downsample = downsample        self.stride = stride    def forward(self, x):        identity = x        out = self.conv1(x)        out = self.bn1(out)        out = self.relu(out)        out = self.conv2(out)        out = self.bn2(out)        out = self.relu(out)        out = self.conv3(out)        out = self.bn3(out)        if self.downsample is not None:            identity = self.downsample(x)        out += identity        out = self.relu(out)        return outclass ResNet(nn.Layer):    """ResNet model from    `"Deep Residual Learning for Image Recognition" `_    Args:        Block (BasicBlock|BottleneckBlock): block module of model.        depth (int): layers of resnet, default: 50.        num_classes (int): output dim of last fc layer. If num_classes  0:            self.fc = nn.Linear(512 * block.expansion, num_classes)        self.final_conv = nn.Conv2D(512 * block.expansion, 1024, 2)        self.final_conv2 = nn.Conv2D(1024, 10, 1)    def _make_layer(self, block, planes, blocks, stride=1, dilate=False):        norm_layer = self._norm_layer        downsample = None        previous_dilation = self.dilation        if dilate:            self.dilation *= stride            stride = 1        if stride != 1 or self.inplanes != planes * block.expansion:            downsample = nn.Sequential(                nn.Conv2D(                    self.inplanes,                    planes * block.expansion,                    1,                    stride=stride,                    bias_attr=False),                norm_layer(planes * block.expansion), )        layers = []        layers.append(            block(self.inplanes, planes, stride, downsample, 1, 64,                  previous_dilation, norm_layer))        self.inplanes = planes * block.expansion        for _ in range(1, blocks):            layers.append(block(self.inplanes, planes, norm_layer=norm_layer))        return nn.Sequential(*layers)    def forward(self, x):        x = self.conv1(x)        x = self.bn1(x)        x = self.relu(x)        # x = self.maxpool(x)        x = self.layer1(x)        x = self.layer2(x)        x = self.layer3(x)        x = self.layer4(x)        ###         # 更改为全卷积层         ###        # if self.with_pool:        #     x = self.avgpool(x)        # if self.num_classes > 0:        #     x = paddle.flatten(x, 1)        #     x = self.fc(x)        ###         # 全卷积层         ###                x = self.final_conv(x)        x = self.final_conv2(x)        x = x.reshape([-1, 10], -1)        return xdef _resnet(arch, Block, depth, pretrained, **kwargs):    model = ResNet(Block, depth, **kwargs)    if pretrained:        assert arch in model_urls, "{} model do not have a pretrained model now, you should set pretrained=False".format(            arch)        weight_path = get_weights_path_from_url(model_urls[arch][0],                                                model_urls[arch][1])        param = paddle.load(weight_path)        model.set_dict(param)    return modeldef resnet50(pretrained=False, **kwargs):    """ResNet 50-layer model    Args:        pretrained (bool): If True, returns a model pre-trained on ImageNet    Examples:        .. code-block:: python            from paddle.vision.models import resnet50            # build model            model = resnet50()            # build model and load imagenet pretrained weight            # model = resnet50(pretrained=True)    """    return _resnet('resnet50', BottleneckBlock, 50, pretrained, **kwargs)

   In [3]

net = resnet50()paddle.summary(net, (1,3,32,32))

       

W0616 14:52:04.385969  2132 gpu_context.cc:278] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 11.2, Runtime API Version: 10.1W0616 14:52:04.390283  2132 gpu_context.cc:306] device: 0, cuDNN Version: 7.6.

       

------------------------------------------------------------------------------   Layer (type)        Input Shape          Output Shape         Param #    ==============================================================================     Conv2D-1        [[1, 3, 32, 32]]     [1, 64, 16, 16]         9,408       BatchNorm2D-1     [[1, 64, 16, 16]]     [1, 64, 16, 16]          256            ReLU-1        [[1, 64, 16, 16]]     [1, 64, 16, 16]           0            Conv2D-3       [[1, 64, 16, 16]]     [1, 64, 16, 16]         4,096       BatchNorm2D-3     [[1, 64, 16, 16]]     [1, 64, 16, 16]          256            ReLU-2        [[1, 256, 16, 16]]    [1, 256, 16, 16]          0            Conv2D-4       [[1, 64, 16, 16]]     [1, 64, 16, 16]        36,864       BatchNorm2D-4     [[1, 64, 16, 16]]     [1, 64, 16, 16]          256           Conv2D-5       [[1, 64, 16, 16]]     [1, 256, 16, 16]       16,384       BatchNorm2D-5     [[1, 256, 16, 16]]    [1, 256, 16, 16]        1,024          Conv2D-2       [[1, 64, 16, 16]]     [1, 256, 16, 16]       16,384       BatchNorm2D-2     [[1, 256, 16, 16]]    [1, 256, 16, 16]        1,024     BottleneckBlock-1   [[1, 64, 16, 16]]     [1, 256, 16, 16]          0            Conv2D-6       [[1, 256, 16, 16]]    [1, 64, 16, 16]        16,384       BatchNorm2D-6     [[1, 64, 16, 16]]     [1, 64, 16, 16]          256            ReLU-3        [[1, 256, 16, 16]]    [1, 256, 16, 16]          0            Conv2D-7       [[1, 64, 16, 16]]     [1, 64, 16, 16]        36,864       BatchNorm2D-7     [[1, 64, 16, 16]]     [1, 64, 16, 16]          256           Conv2D-8       [[1, 64, 16, 16]]     [1, 256, 16, 16]       16,384       BatchNorm2D-8     [[1, 256, 16, 16]]    [1, 256, 16, 16]        1,024     BottleneckBlock-2   [[1, 256, 16, 16]]    [1, 256, 16, 16]          0            Conv2D-9       [[1, 256, 16, 16]]    [1, 64, 16, 16]        16,384       BatchNorm2D-9     [[1, 64, 16, 16]]     [1, 64, 16, 16]          256            ReLU-4        [[1, 256, 16, 16]]    [1, 256, 16, 16]          0           Conv2D-10       [[1, 64, 16, 16]]     [1, 64, 16, 16]        36,864       BatchNorm2D-10    [[1, 64, 16, 16]]     [1, 64, 16, 16]          256          Conv2D-11       [[1, 64, 16, 16]]     [1, 256, 16, 16]       16,384       BatchNorm2D-11    [[1, 256, 16, 16]]    [1, 256, 16, 16]        1,024     BottleneckBlock-3   [[1, 256, 16, 16]]    [1, 256, 16, 16]          0           Conv2D-13       [[1, 256, 16, 16]]    [1, 128, 16, 16]       32,768       BatchNorm2D-13    [[1, 128, 16, 16]]    [1, 128, 16, 16]         512            ReLU-5         [[1, 512, 8, 8]]      [1, 512, 8, 8]           0           Conv2D-14       [[1, 128, 16, 16]]     [1, 128, 8, 8]        147,456      BatchNorm2D-14     [[1, 128, 8, 8]]      [1, 128, 8, 8]          512          Conv2D-15        [[1, 128, 8, 8]]      [1, 512, 8, 8]        65,536       BatchNorm2D-15     [[1, 512, 8, 8]]      [1, 512, 8, 8]         2,048         Conv2D-12       [[1, 256, 16, 16]]     [1, 512, 8, 8]        131,072      BatchNorm2D-12     [[1, 512, 8, 8]]      [1, 512, 8, 8]         2,048     BottleneckBlock-4   [[1, 256, 16, 16]]     [1, 512, 8, 8]           0           Conv2D-16        [[1, 512, 8, 8]]      [1, 128, 8, 8]        65,536       BatchNorm2D-16     [[1, 128, 8, 8]]      [1, 128, 8, 8]          512            ReLU-6         [[1, 512, 8, 8]]      [1, 512, 8, 8]           0           Conv2D-17        [[1, 128, 8, 8]]      [1, 128, 8, 8]        147,456      BatchNorm2D-17     [[1, 128, 8, 8]]      [1, 128, 8, 8]          512          Conv2D-18        [[1, 128, 8, 8]]      [1, 512, 8, 8]        65,536       BatchNorm2D-18     [[1, 512, 8, 8]]      [1, 512, 8, 8]         2,048     BottleneckBlock-5    [[1, 512, 8, 8]]      [1, 512, 8, 8]           0           Conv2D-19        [[1, 512, 8, 8]]      [1, 128, 8, 8]        65,536       BatchNorm2D-19     [[1, 128, 8, 8]]      [1, 128, 8, 8]          512            ReLU-7         [[1, 512, 8, 8]]      [1, 512, 8, 8]           0           Conv2D-20        [[1, 128, 8, 8]]      [1, 128, 8, 8]        147,456      BatchNorm2D-20     [[1, 128, 8, 8]]      [1, 128, 8, 8]          512          Conv2D-21        [[1, 128, 8, 8]]      [1, 512, 8, 8]        65,536       BatchNorm2D-21     [[1, 512, 8, 8]]      [1, 512, 8, 8]         2,048     BottleneckBlock-6    [[1, 512, 8, 8]]      [1, 512, 8, 8]           0           Conv2D-22        [[1, 512, 8, 8]]      [1, 128, 8, 8]        65,536       BatchNorm2D-22     [[1, 128, 8, 8]]      [1, 128, 8, 8]          512            ReLU-8         [[1, 512, 8, 8]]      [1, 512, 8, 8]           0           Conv2D-23        [[1, 128, 8, 8]]      [1, 128, 8, 8]        147,456      BatchNorm2D-23     [[1, 128, 8, 8]]      [1, 128, 8, 8]          512          Conv2D-24        [[1, 128, 8, 8]]      [1, 512, 8, 8]        65,536       BatchNorm2D-24     [[1, 512, 8, 8]]      [1, 512, 8, 8]         2,048     BottleneckBlock-7    [[1, 512, 8, 8]]      [1, 512, 8, 8]           0           Conv2D-26        [[1, 512, 8, 8]]      [1, 256, 8, 8]        131,072      BatchNorm2D-26     [[1, 256, 8, 8]]      [1, 256, 8, 8]         1,024           ReLU-9        [[1, 1024, 4, 4]]     [1, 1024, 4, 4]           0           Conv2D-27        [[1, 256, 8, 8]]      [1, 256, 4, 4]        589,824      BatchNorm2D-27     [[1, 256, 4, 4]]      [1, 256, 4, 4]         1,024         Conv2D-28        [[1, 256, 4, 4]]     [1, 1024, 4, 4]        262,144      BatchNorm2D-28    [[1, 1024, 4, 4]]     [1, 1024, 4, 4]         4,096         Conv2D-25        [[1, 512, 8, 8]]     [1, 1024, 4, 4]        524,288      BatchNorm2D-25    [[1, 1024, 4, 4]]     [1, 1024, 4, 4]         4,096     BottleneckBlock-8    [[1, 512, 8, 8]]     [1, 1024, 4, 4]           0           Conv2D-29       [[1, 1024, 4, 4]]      [1, 256, 4, 4]        262,144      BatchNorm2D-29     [[1, 256, 4, 4]]      [1, 256, 4, 4]         1,024          ReLU-10        [[1, 1024, 4, 4]]     [1, 1024, 4, 4]           0           Conv2D-30        [[1, 256, 4, 4]]      [1, 256, 4, 4]        589,824      BatchNorm2D-30     [[1, 256, 4, 4]]      [1, 256, 4, 4]         1,024         Conv2D-31        [[1, 256, 4, 4]]     [1, 1024, 4, 4]        262,144      BatchNorm2D-31    [[1, 1024, 4, 4]]     [1, 1024, 4, 4]         4,096     BottleneckBlock-9   [[1, 1024, 4, 4]]     [1, 1024, 4, 4]           0           Conv2D-32       [[1, 1024, 4, 4]]      [1, 256, 4, 4]        262,144      BatchNorm2D-32     [[1, 256, 4, 4]]      [1, 256, 4, 4]         1,024          ReLU-11        [[1, 1024, 4, 4]]     [1, 1024, 4, 4]           0           Conv2D-33        [[1, 256, 4, 4]]      [1, 256, 4, 4]        589,824      BatchNorm2D-33     [[1, 256, 4, 4]]      [1, 256, 4, 4]         1,024         Conv2D-34        [[1, 256, 4, 4]]     [1, 1024, 4, 4]        262,144      BatchNorm2D-34    [[1, 1024, 4, 4]]     [1, 1024, 4, 4]         4,096     BottleneckBlock-10  [[1, 1024, 4, 4]]     [1, 1024, 4, 4]           0           Conv2D-35       [[1, 1024, 4, 4]]      [1, 256, 4, 4]        262,144      BatchNorm2D-35     [[1, 256, 4, 4]]      [1, 256, 4, 4]         1,024          ReLU-12        [[1, 1024, 4, 4]]     [1, 1024, 4, 4]           0           Conv2D-36        [[1, 256, 4, 4]]      [1, 256, 4, 4]        589,824      BatchNorm2D-36     [[1, 256, 4, 4]]      [1, 256, 4, 4]         1,024         Conv2D-37        [[1, 256, 4, 4]]     [1, 1024, 4, 4]        262,144      BatchNorm2D-37    [[1, 1024, 4, 4]]     [1, 1024, 4, 4]         4,096     BottleneckBlock-11  [[1, 1024, 4, 4]]     [1, 1024, 4, 4]           0           Conv2D-38       [[1, 1024, 4, 4]]      [1, 256, 4, 4]        262,144      BatchNorm2D-38     [[1, 256, 4, 4]]      [1, 256, 4, 4]         1,024          ReLU-13        [[1, 1024, 4, 4]]     [1, 1024, 4, 4]           0           Conv2D-39        [[1, 256, 4, 4]]      [1, 256, 4, 4]        589,824      BatchNorm2D-39     [[1, 256, 4, 4]]      [1, 256, 4, 4]         1,024         Conv2D-40        [[1, 256, 4, 4]]     [1, 1024, 4, 4]        262,144      BatchNorm2D-40    [[1, 1024, 4, 4]]     [1, 1024, 4, 4]         4,096     BottleneckBlock-12  [[1, 1024, 4, 4]]     [1, 1024, 4, 4]           0           Conv2D-41       [[1, 1024, 4, 4]]      [1, 256, 4, 4]        262,144      BatchNorm2D-41     [[1, 256, 4, 4]]      [1, 256, 4, 4]         1,024          ReLU-14        [[1, 1024, 4, 4]]     [1, 1024, 4, 4]           0           Conv2D-42        [[1, 256, 4, 4]]      [1, 256, 4, 4]        589,824      BatchNorm2D-42     [[1, 256, 4, 4]]      [1, 256, 4, 4]         1,024         Conv2D-43        [[1, 256, 4, 4]]     [1, 1024, 4, 4]        262,144      BatchNorm2D-43    [[1, 1024, 4, 4]]     [1, 1024, 4, 4]         4,096     BottleneckBlock-13  [[1, 1024, 4, 4]]     [1, 1024, 4, 4]           0           Conv2D-45       [[1, 1024, 4, 4]]      [1, 512, 4, 4]        524,288      BatchNorm2D-45     [[1, 512, 4, 4]]      [1, 512, 4, 4]         2,048          ReLU-15        [[1, 2048, 2, 2]]     [1, 2048, 2, 2]           0           Conv2D-46        [[1, 512, 4, 4]]      [1, 512, 2, 2]       2,359,296     BatchNorm2D-46     [[1, 512, 2, 2]]      [1, 512, 2, 2]         2,048         Conv2D-47        [[1, 512, 2, 2]]     [1, 2048, 2, 2]       1,048,576     BatchNorm2D-47    [[1, 2048, 2, 2]]     [1, 2048, 2, 2]         8,192         Conv2D-44       [[1, 1024, 4, 4]]     [1, 2048, 2, 2]       2,097,152     BatchNorm2D-44    [[1, 2048, 2, 2]]     [1, 2048, 2, 2]         8,192     BottleneckBlock-14  [[1, 1024, 4, 4]]     [1, 2048, 2, 2]           0           Conv2D-48       [[1, 2048, 2, 2]]      [1, 512, 2, 2]       1,048,576     BatchNorm2D-48     [[1, 512, 2, 2]]      [1, 512, 2, 2]         2,048          ReLU-16        [[1, 2048, 2, 2]]     [1, 2048, 2, 2]           0           Conv2D-49        [[1, 512, 2, 2]]      [1, 512, 2, 2]       2,359,296     BatchNorm2D-49     [[1, 512, 2, 2]]      [1, 512, 2, 2]         2,048         Conv2D-50        [[1, 512, 2, 2]]     [1, 2048, 2, 2]       1,048,576     BatchNorm2D-50    [[1, 2048, 2, 2]]     [1, 2048, 2, 2]         8,192     BottleneckBlock-15  [[1, 2048, 2, 2]]     [1, 2048, 2, 2]           0           Conv2D-51       [[1, 2048, 2, 2]]      [1, 512, 2, 2]       1,048,576     BatchNorm2D-51     [[1, 512, 2, 2]]      [1, 512, 2, 2]         2,048          ReLU-17        [[1, 2048, 2, 2]]     [1, 2048, 2, 2]           0           Conv2D-52        [[1, 512, 2, 2]]      [1, 512, 2, 2]       2,359,296     BatchNorm2D-52     [[1, 512, 2, 2]]      [1, 512, 2, 2]         2,048         Conv2D-53        [[1, 512, 2, 2]]     [1, 2048, 2, 2]       1,048,576     BatchNorm2D-53    [[1, 2048, 2, 2]]     [1, 2048, 2, 2]         8,192     BottleneckBlock-16  [[1, 2048, 2, 2]]     [1, 2048, 2, 2]           0           Conv2D-54       [[1, 2048, 2, 2]]     [1, 1024, 1, 1]       8,389,632       Conv2D-55       [[1, 1024, 1, 1]]      [1, 10, 1, 1]         10,250     ==============================================================================Total params: 31,961,034Trainable params: 31,854,794Non-trainable params: 106,240------------------------------------------------------------------------------Input size (MB): 0.01Forward/backward pass size (MB): 20.10Params size (MB): 121.92Estimated Total Size (MB): 142.04------------------------------------------------------------------------------

       

{'total_params': 31961034, 'trainable_params': 31854794}

               

3.自定义数据集处理方式

In [4]

class ToArray(object):    def __call__(self, img):        img = np.array(img)        img = np.transpose(img, [2, 0, 1])        img = img / 255.        return img.astype('float32')class RandomApply(object):    def __init__(self, transform, p=0.5):        super().__init__()        self.p = p        self.transform = transform            def __call__(self, img):        if self.p = self.model._optimizer._learning_rate.warmup_steps:                self.warm_up = Falsedef _on_train_batch_end(self, step, logs=None):    logs = logs or {}    logs['lr'] = self.model._optimizer.get_lr()    self.train_step += 1    if self._is_write():        self._updates(logs, 'train')def _on_train_begin(self, logs=None):    self.epochs = self.params['epochs']    assert self.epochs    self.train_metrics = self.params['metrics'] + ['lr']    assert self.train_metrics    self._is_fit = True    self.train_step = 0callbacks.VisualDL.on_train_batch_end = _on_train_batch_endcallbacks.VisualDL.on_train_begin = _on_train_begin

   

4.在Cifar10数据集上训练模型

使用Paddle自带的Cifar10数据集API加载

In [ ]

model = paddle.Model(resnet50())# 加载checkpoint# model.load('output/ResNet50-FCN/299.pdparams')MAX_EPOCH = 300LR = 0.01WEIGHT_DECAY = 5e-4MOMENTUM = 0.9BATCH_SIZE = 256CIFAR_MEAN = [0.5071, 0.4865, 0.4409]CIFAR_STD = [0.1942, 0.1918, 0.1958]DATA_FILE = Nonemodel.prepare(    paddle.optimizer.Momentum(        learning_rate=LinearWarmup(CosineAnnealingDecay(LR, MAX_EPOCH), 2000, 0., LR),        momentum=MOMENTUM,        parameters=model.parameters(),        weight_decay=WEIGHT_DECAY),    paddle.nn.CrossEntropyLoss(),    paddle.metric.Accuracy(topk=(1,5)))# 定义数据集增强方式transforms = Compose([    RandomCrop(32, padding=4),    RandomApply(BrightnessTransform(0.1)),    RandomApply(ContrastTransform(0.1)),    RandomHorizontalFlip(),    RandomRotation(15),    ToArray(),    Normalize(CIFAR_MEAN, CIFAR_STD),    # Resize(size=224)])val_transforms = Compose([ToArray(), Normalize(CIFAR_MEAN, CIFAR_STD)])# 加载训练和测试数据集train_set = Cifar10(DATA_FILE, mode='train', transform=transforms)test_set = Cifar10(DATA_FILE, mode='test', transform=val_transforms)# 定义保存方式和训练可视化checkpoint_callback = paddle.callbacks.ModelCheckpoint(save_freq=1, save_dir='output/ResNet50-FCN')callbacks = [LRSchedulerM(),checkpoint_callback, callbacks.VisualDL('vis_logs/resnet50_FCN.log')]# 训练模型model.fit(    train_set,    test_set,    epochs=MAX_EPOCH,     batch_size=BATCH_SIZE,    shuffle=True,    num_workers=4,    verbose=1,     callbacks=callbacks,)

   

对照实验:原始ResNet50

In [ ]

model = paddle.Model(paddle.vision.models.resnet50(pretrained=False))# 加载checkpoint# model.load('output/ResNet50/299.pdparams')MAX_EPOCH = 300LR = 0.01WEIGHT_DECAY = 5e-4MOMENTUM = 0.9BATCH_SIZE = 256CIFAR_MEAN = [0.5071, 0.4865, 0.4409]CIFAR_STD = [0.1942, 0.1918, 0.1958]DATA_FILE = Nonemodel.prepare(    paddle.optimizer.Momentum(        learning_rate=LinearWarmup(CosineAnnealingDecay(LR, MAX_EPOCH), 2000, 0., LR),        momentum=MOMENTUM,        parameters=model.parameters(),        weight_decay=WEIGHT_DECAY),    paddle.nn.CrossEntropyLoss(),    paddle.metric.Accuracy(topk=(1,5)))# 定义数据集增强方式transforms = Compose([    RandomCrop(32, padding=4),    RandomApply(BrightnessTransform(0.1)),    RandomApply(ContrastTransform(0.1)),    RandomHorizontalFlip(),    RandomRotation(15),    ToArray(),    Normalize(CIFAR_MEAN, CIFAR_STD),])val_transforms = Compose([ToArray(), Normalize(CIFAR_MEAN, CIFAR_STD)])# 加载训练和测试数据集train_set = Cifar100(DATA_FILE, mode='train', transform=transforms)test_set = Cifar100(DATA_FILE, mode='test', transform=val_transforms)# 定义保存方式和训练可视化checkpoint_callback = paddle.callbacks.ModelCheckpoint(save_freq=1, save_dir='output/ResNet50')callbacks = [LRSchedulerM(),checkpoint_callback, callbacks.VisualDL('vis_logs/resnet50.log')]# 训练模型model.fit(    train_set,    test_set,    epochs=MAX_EPOCH,     batch_size=BATCH_SIZE,    shuffle=True,    num_workers=4,    verbose=1,     callbacks=callbacks,)

   

实验结果

两次实验均使用相同的参数:

epoch = 100lr = 0.01weight_decay = 5e-4momentum = 0.9pretrained = False

ResNet50-FCN模型的Top-1 acc和Top-5 acc如下图所示:

【AI达人特训营】基于全卷积神经网络的图像分类复现 - 创想鸟        

ResNet50模型的Top-1 acc和Top-5 acc如下图所示:

【AI达人特训营】基于全卷积神经网络的图像分类复现 - 创想鸟        

通过比较,经过修改后的模型效果得到了提升,且准确率上升过程更加平滑,抖动较小。

以上就是【AI达人特训营】基于全卷积神经网络的图像分类复现的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/46184.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月7日 17:05:49
下一篇 2025年11月7日 17:09:49

相关推荐

  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • 旋转长方形后,如何计算其相对于画布左上角的轴距?

    绘制长方形并旋转,计算旋转后轴距 在拥有 1920×1080 画布中,放置一个宽高为 200×20 的长方形,其坐标位于 (100, 100)。当以任意角度旋转长方形时,如何计算它相对于画布左上角的 x、y 轴距? 以下代码提供了一个计算旋转后长方形轴距的解决方案: const x = 200;co…

    2025年12月24日
    000
  • 旋转长方形后,如何计算它与画布左上角的xy轴距?

    旋转后长方形在画布上的xy轴距计算 在画布中添加一个长方形,并将其旋转任意角度,如何计算旋转后的长方形与画布左上角之间的xy轴距? 问题分解: 要计算旋转后长方形的xy轴距,需要考虑旋转对长方形宽高和位置的影响。首先,旋转会改变长方形的长和宽,其次,旋转会改变长方形的中心点位置。 求解方法: 计算旋…

    2025年12月24日
    000
  • 旋转长方形后如何计算其在画布上的轴距?

    旋转长方形后计算轴距 假设长方形的宽、高分别为 200 和 20,初始坐标为 (100, 100),我们将它旋转一个任意角度。根据旋转矩阵公式,旋转后的新坐标 (x’, y’) 可以通过以下公式计算: x’ = x * cos(θ) – y * sin(θ)y’ = x * …

    2025年12月24日
    000
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 如何计算旋转后长方形在画布上的轴距?

    旋转后长方形与画布轴距计算 在给定的画布中,有一个长方形,在随机旋转一定角度后,如何计算其在画布上的轴距,即距离左上角的距离? 以下提供一种计算长方形相对于画布左上角的新轴距的方法: const x = 200; // 初始 x 坐标const y = 90; // 初始 y 坐标const w =…

    2025年12月24日
    200
  • CSS元素设置em和transition后,为何载入页面无放大效果?

    css元素设置em和transition后,为何载入无放大效果 很多开发者在设置了em和transition后,却发现元素载入页面时无放大效果。本文将解答这一问题。 原问题:在视频演示中,将元素设置如下,载入页面会有放大效果。然而,在个人尝试中,并未出现该效果。这是由于macos和windows系统…

    2025年12月24日
    200
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 如何计算旋转后的长方形在画布上的 XY 轴距?

    旋转长方形后计算其画布xy轴距 在创建的画布上添加了一个长方形,并提供其宽、高和初始坐标。为了视觉化旋转效果,还提供了一些旋转特定角度后的图片。 问题是如何计算任意角度旋转后,这个长方形的xy轴距。这涉及到使用三角学来计算旋转后的坐标。 以下是一个 javascript 代码示例,用于计算旋转后长方…

    2025年12月24日
    000
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信