FPN综述保姆级教程

本文是FPN综述教程,先介绍FPN开山之作,含简介、相关工作、结构及基于ResNet18的代码实现。还讲解了PAFPN,其在FPN基础上增加自底向上路径,给出结构与代码。最后阐述BiFPN,包括简介、结构及多特征图示例的代码实现。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

fpn综述保姆级教程 - 创想鸟

FPN综述教程(保姆级)

0 前言

鸽了好久的项目,看平台对FPN介绍不多,我来捡个漏。带大家逐行coding

FPN综述保姆级教程 - 创想鸟

1 FPN开山

1.1 简介

论文链接Feature Pyramid Networks for Object Detection

特征金字塔是识别系统中用于检测不同尺度目标的基本组件。但是最近的深度学习目标检测器已经开始因为内存与计算密集开始避免使用特征金字塔结构了。在本文中,作者通过利用深度卷积网络内在的多尺度、金字塔分级来构造具有少量额外成本的特征金字塔。开发了一种具有横向连接的自顶向下架构,用于在所有尺度上构建高级语义特征映射。这种称为特征金字塔网络(FPN)的架构在几个应用程序中作为通用特征提取器表现出了显著的改进,是多尺度目标检测的实用和准确的解决方案。

1.2 相关工作

FPN综述保姆级教程 - 创想鸟

图a是一个特征图像金字塔结构,在传统的图像处理中经常用到,在检测不同尺度的目标时,将给定的图片首先缩放到不同的尺度,图中为4个不同的尺度,对于每个不同尺度的图片,分别使用算法进行预测。这样做的问题就是,如果生成多少个尺度我们就需要重新使用多少次预测算法这样做的效率非常低。图b就很像fast R-CNN中使用的方式,首先使用一个backbone提取特征图,然后在最终的特征图上进行预测,在这种情况下,对于小目标的检测任务通常就会表现比较差。图c和SSD(single shot multibox detector)算法很类似,在backbone不同阶段生成的特征图上,分别进行预测。图d就是FPN结构,和图c不同的是,它不是简单地在每个特征图上进行预测,而是将不同的特征图进行特征融合,然后用融合后的特征图来进行预测,根据这篇文章中的实验可以得出这样做确实有提高网络能力的效果。

1.3 FPN block(这里简短介绍一下理论,下面介绍代码)

FPN综述保姆级教程 - 创想鸟

立即进入“豆包AI人工智官网入口”;

立即学习“豆包AI人工智能在线问答入口”;

step1:首先对每一个特征层得到的特征图进行一个1×1卷积操作,为了让每个特征图在进行融合的使用保持通道(channel)数一致。step2:将高层次的特征图进行一次2倍上采样,让相邻的两个特征图可以进行融和(上采样方式采用邻近插值算法)step3,将融和后的特征图通过3×3卷积进一步融合(这一步上图是没有体现的)

为了防止大家迷糊,我这里对上图从新绘制个细节图如下(这里我采用的是resnet18作为特征提取网络)

FPN综述保姆级教程 - 创想鸟

1.4 代码

这里将带大家逐行code(主讲FPN,resnet一笔带过)In [1]

# 导入相关的包import paddleimport paddle.nn.functional as Fimport paddle.nn as nn

下图为resnet的主要模块

FPN综述保姆级教程 - 创想鸟

In [2]

# 构建resnet18的基础模块# Identity模块表示没有任何操作class Identity(nn.Layer):    def __init_(self):        super().__init__()    def forward(self, x):        return x# Block模块是构成resnet的主要模块# 通过判断步长(stride == 2)和通道数(in_dim != out_dim)# 判断indentity = self.downsample(h)中,self.downsample()下采样方式class Block(nn.Layer):    def __init__(self, in_dim, out_dim, stride):        super().__init__()        ## 补充代码        self.conv1 = nn.Conv2D(in_dim, out_dim, 3, stride=stride, padding=1, bias_attr=False)        self.bn1 = nn.BatchNorm2D(out_dim)        self.conv2 = nn.Conv2D(out_dim, out_dim, 3, stride=1, padding=1, bias_attr=False)        self.bn2 = nn.BatchNorm2D(out_dim)        self.relu = nn.ReLU()        if stride == 2 or in_dim != out_dim:            self.downsample = nn.Sequential(*[                nn.Conv2D(in_dim,out_dim,1,stride=stride),                nn.BatchNorm2D(out_dim)])        else:            self.downsample = Identity()    def forward(self, x):        ## 补充代码        h = x        x = self.conv1(x)        x = self.bn1(x)        x = self.relu(x)        x = self.conv2(x)        x = self.bn2(x)        indentity = self.downsample(h)        x = x + indentity        x = self.relu(x)        return x

In [3]

# 搭建resnet18主干网络class ResNet18(nn.Layer):    def __init__(self, in_dim=64):        super().__init__()        self.in_dim = in_dim        # stem layer        self.conv1 = nn.Conv2D(in_channels=3,out_channels=in_dim,kernel_size=3,stride=1,padding=1,bias_attr=False)        self.bn1 = nn.BatchNorm2D(in_dim)        self.relu = nn.ReLU()                #blocks        self.layers1 = self._make_layer(dim=64,n_blocks=2,stride=1)        self.layers2 = self._make_layer(dim=128,n_blocks=2,stride=2)        self.layers3 = self._make_layer(dim=256,n_blocks=2,stride=2)        self.layers4 = self._make_layer(dim=512,n_blocks=2,stride=2)    def _make_layer(self, dim, n_blocks, stride):        layer_list = []        layer_list.append(Block(self.in_dim, dim, stride=stride))        self.in_dim = dim        for i in range(1,n_blocks):            layer_list.append(Block(self.in_dim, dim, stride=1))        return nn.Sequential(*layer_list)    def forward(self, x):        # 创建一个存放不同尺度特征图的列表        fpn_list = []        x = self.conv1(x)        x = self.bn1(x)        x = self.relu(x)        x = self.layers1(x)        # x [2, 64, 64, 64]        fpn_list.append(x)        x = self.layers2(x)        # x [2, 128, 32, 32]        fpn_list.append(x)        x = self.layers3(x)        # x [2, 256, 16, 16]        fpn_list.append(x)        x = self.layers4(x)        # x [2, 512, 8, 8]        fpn_list.append(x)        return fpn_list

In [4]

# FPN构建# fpn_list中包含以下特征维度,对应章节1.3中的图# C2 [2, 64, 64, 64]# C3 [2, 128, 32, 32]# C4 [2, 256, 16, 16]# C5 [2, 512, 8, 8]class FPN(nn.Layer):    def __init__(self,in_channel_list,out_channel):        super(FPN, self).__init__()        self.inner_layer=[]  # 1x1卷积,统一通道数        self.out_layer=[]  # 3x3卷积,对add后的特征图进一步融合        for in_channel in in_channel_list:              self.inner_layer.append(nn.Conv2D(in_channel,out_channel,1))            self.out_layer.append(nn.Conv2D(out_channel,out_channel,kernel_size=3,padding=1))    def forward(self,x):        head_output=[]  # 存放最终输出特征图        corent_inner=self.inner_layer[-1](x[-1])  # 过1x1卷积,对C5统一通道数操作        head_output.append(self.out_layer[-1](corent_inner)) # 过3x3卷积,对统一通道后过的特征进一步融合,加入head_output列表        print(self.out_layer[-1](corent_inner).shape)                for i in range(len(x)-2,-1,-1):  # 通过for循环,对C4,C3,C2进行            pre_inner=corent_inner            corent_inner=self.inner_layer[i](x[i])  # 1x1卷积,统一通道数操作            size=corent_inner.shape[2:]  # 获取上采样的大小(size)            pre_top_down=F.interpolate(pre_inner,size=size)  # 上采样操作(这里大家去看一下interpolate这个上采样api)            add_pre2corent=pre_top_down+corent_inner  # add操作            head_output.append(self.out_layer[i](add_pre2corent))  # 3x3卷积,特征进一步融合操作,并加入head_output列表            print(self.out_layer[i](add_pre2corent).shape)                return head_output# head_output 中包含以下特征维度,对应章节1.3中的图# P5 [2, 256, 8, 8]# P4 [2, 256, 16, 16]# P3 [2, 256, 32, 32]# P2 [2, 256, 64, 64]

In [ ]

model = ResNet18()# print(model)# [64,128,256,512]表示输入特征通道数的列表(C2-C5的通道数列表),256表示过FPN后最终通道数(P2-P5的通道数)fpn=FPN([64,128,256,512],256)x = paddle.randn([2, 3, 64, 64])fpn_list = model(x)out = fpn(fpn_list)# print(list(reversed(out)))
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/nn/layer/norm.py:653: UserWarning: When training, we now always track global mean and variance.  "When training, we now always track global mean and variance.")
[2, 256, 8, 8][2, 256, 16, 16][2, 256, 32, 32][2, 256, 64, 64]

2 PAFPN

2.1 简介

论文链接Path Aggregation Network for Instance SegmentationPANet在FPN的自上向下的路径之后又添加了一个自底向上的路径,通过这个路径PANet得到 (N1-N4) 共4个Feature Map。PANet的融合模块如下图所示

FPN综述保姆级教程 - 创想鸟

这里有个小改动,在特征图合并时,使用张量连接(concat)代替了原论文中的捷径连接(shortcut connection),yolov4也是这么干的,如下图所示,

FPN综述保姆级教程 - 创想鸟

PAFPN全貌如下图所示

FPN综述保姆级教程 - 创想鸟

因为采用张量连接(concat)操作,产生特征图的通道数是捷径连接(shortcut connection)产生的2倍(如本节图2所示),所以上图(本节图3)中采用1×1卷积用于统一通道数,后采用3×3卷积进一步融合。In [ ]

# 构建一个用于下采样的卷积池化模块class ConvNormLayer(nn.Layer):    def __init__(self, in_channel, out_channel, kernel_size, stride, padding=1):        super(ConvNormLayer, self).__init__()        self.conv = nn.Conv2D(in_channel, out_channel, kernel_size, stride, padding)        self.norm = nn.BatchNorm2D(out_channel)    def forward(self, inputs):        out = self.conv(inputs)        out = self.norm(out)        return out

In [ ]

# PAFPN构建# fpn_list中包含以下特征维度,对应章节2.1中的图# C2 [2, 64, 64, 64]# C3 [2, 128, 32, 32]# C4 [2, 256, 16, 16]# C5 [2, 512, 8, 8]class PAFPN(nn.Layer):    def __init__(self,in_channel_list,out_channel):        super(PAFPN, self).__init__()        self.fpn = FPN(in_channel_list, out_channel)        self.bottom_up = ConvNormLayer(out_channel, out_channel, 3, 2)  # 2倍下采样模块        self.inner_layer=[]  # 1x1卷积,统一通道数,处理P3-P5的输出,这里要注意P2和P3-P5的输入通道是不同的,可以看2.1图3,        self.out_layer=[]  # 3x3卷积,对concat后的特征图进一步融合        for i in range(len(in_channel_list)):            if i==0:                  self.inner_layer.append(nn.Conv2D(out_channel, out_channel,1))  # 处理P2            else:                self.inner_layer.append(nn.Conv2D(out_channel*2, out_channel,1))  # 处理P3-P5            self.out_layer.append(nn.Conv2D(out_channel,out_channel,kernel_size=3,padding=1))    def forward(self,x):        head_output=[]  # 存放最终输出特征图        fpn_out = self.fpn(x)  # FPN操作        print('------------FPN--PAFPN--------------')  # PAFPN操作分割线        corent_inner=self.inner_layer[0](fpn_out[-1])  # 过1x1卷积,对P2统一通道数操作        head_output.append(self.out_layer[0](corent_inner))  # 过3x3卷积,对统一通道后过的特征进一步融合,加入head_output列表        print(self.out_layer[0](corent_inner).shape)        for i in range(1,len(fpn_out),1):            pre_bottom_up = corent_inner            pre_concat = self.bottom_up(pre_bottom_up)  # 下采样            pre_inner = paddle.concat([fpn_out[-1-i],pre_concat], 1)  # concat            corent_inner=self.inner_layer[i](pre_inner)  # 1x1卷积压缩通道            head_output.append(self.out_layer[i](corent_inner))  # 3x3卷积进一步融合            print(self.out_layer[i](corent_inner).shape)                return head_output# head_output 中包含以下特征维度,对应章节1.3中的图# N2 [2, 256, 64, 64]# N3 [2, 256, 32, 32]# N4 [2, 256, 16, 16]# N5 [2, 256, 8, 8]

In [ ]

model = ResNet18()# print(model)# [64,128,256,512]表示输入特征通道数的列表(C2-C5的通道数列表),256表示过FPN后最终通道数(P2-P5的通道数)pafpn=PAFPN([64,128,256,512],256)x = paddle.randn([2, 3, 64, 64])fpn_list = model(x)out = pafpn(fpn_list)
[2, 256, 8, 8][2, 256, 16, 16][2, 256, 32, 32][2, 256, 64, 64]------------FPN--PAFPN--------------[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8]

3 BiFPN

3.1 简介

论文链接EfficientDet: Scalable and Efficient Object DetectionBiFPN ,在 PANet 简化版的基础上,若输入和输出结点是同一 level 的,则添加一条额外的边,在不增加 cost 的同时融合更多的特征。(注意, PANet 只有一条 top-down path 和一条 bottom-up path ,而本文作者是将 BiFPN 当作一个 feature network layer 来用的,重复多次。如下图所示

FPN综述保姆级教程 - 创想鸟

3.1 BiFPN block

下图为 BiFPN block

FPN综述保姆级教程 - 创想鸟

论文中从EfficientNet中取了P3~P7的5个scale的feature map作为BiFPN的输入,但是EfficientNet只有1/8~1/32的三个scale。官方通过Downsample来得到1/64和1/128的feature map。同时官方中用的max_pooling做的降采样。这里为尽量跟官方类似,将resnet获取的4个(C2-C5),其中的C5进行降采样,最终获得5个对应上图的(P3-P7)在第一层BiFPN中P5和P4节点的两个输出为不同tensor(图中根本看不出来~)。在官方代码中,上图中的彩色节点的输入都会经过Resample的过程,而Resample会在输入channel数与输出channel数不等时添加1x1conv,所以就导致了第一层BiFPN中P5和P4节点的两个输出为不同tensor。上图的彩色节点由separable conv BN与activation组成,每个彩色节点由Sepconv_BN_Swish组成。

3.2 代码实现步骤图

FPN综述保姆级教程 - 创想鸟

图中各个模块说明:(这里没有对原论文加入注意力机制进行实现,只是实现了模型结构,并略微改进了构建方式)C(2-5)到P(3-7)下采样块 C_to_P:将C(2-5)四个特征图变为P(3-7)五个特征图(原论文是将3个变为5个,下采样方法一样),图中的P(3-7)块没有任何操作,只是个标识1×1和3×3卷积模块Sepconv_BN_Swish:构建3.1节每个彩色节点模块绿色块BiFPN_block1:这里跟原论文代码构建方式不同,原论文是通过一层层进行搭建,这样限定了输入必须是五个特征图,本项目的搭建方式可以实现n个(3<n,这里的3是由BiFPN中间结构所决定的),其中的连接方式采用concat方式,进行上采样操作蓝色块BiFPN_block2:接受BiFPN_block1传出特征图,同样连接方式采用concat方式,下采样采用最大池化方式橙色块BiFPN_block:表示BiFPN_block1、BiFPN_block2共同组合一个BiFPN_block模块,这里第一个BiFPN_block与第二个BiFPN_block输出特征图通道略有不同,后续BiFPN_block(3、4….)特征通道数均与第二个BiFPN_block相同Identity:Identity模块不作任何处理输入=输出(这里使用是方便简化代码的构建)

In [5]

# 构建每个彩色节点模块,由3x3和1x1卷积构成class Sepconv_BN_Swish(nn.Layer):    def __init__(self, in_channels, out_channels=None):        super(Sepconv_BN_Swish, self).__init__()        if out_channels is None:            out_channels = in_channels        self.depthwise_conv = nn.Conv2D(in_channels, in_channels, kernel_size=3, stride=1, padding=1)        self.pointwise_conv = nn.Conv2D(in_channels, out_channels, kernel_size=1, stride=1)        self.norm = nn.BatchNorm2D(out_channels)        self.act = nn.Swish()    def forward(self, inputs):        out = self.depthwise_conv(inputs)        out = self.pointwise_conv(out)        out = self.norm(out)        out = self.act(out)        return out

In [20]

# 由(C2-C5)产生(P3-P7),操作是将C5降采样# C2 [2, 64, 64, 64]# C3 [2, 128, 32, 32]# C4 [2, 256, 16, 16]# C5 [2, 512, 8, 8]class C_to_P(nn.Layer):    def __init__(self,inputs_size=8):  # inputs_size是C5的size        super(C_to_P, self).__init__()        self.max_pool = nn.AdaptiveMaxPool2D(inputs_size//2)    def forward(self, inputs):        output=[]  # 存放最终输出特征图(P3-P7)        output = inputs        out = self.max_pool(inputs[-1])  # 最大池化用于下采样        output.append(out)        return output# P3 [2, 64, 64, 64]# P4 [2, 128, 32, 32]# P5 [2, 256, 16, 16]# P6 [2, 512, 8, 8]# P7 [2, 512, 4, 4]

In [24]

# BiFPN_block1实现的操作是(5->3)这层的操作class BiFPN_block1(nn.Layer):    def __init__(self,in_channel_list,out_channel):        super(BiFPN_block1, self).__init__()        self.block1_layer=[]  #  用于3个存放彩色节点模块和1个Identity(以5个特征图为例)        for i in range(len(in_channel_list)-2):             if i == 0:                in_channel =  in_channel_list[-1-i] + in_channel_list[-2-i]            else:                in_channel = out_channel + in_channel_list[-2-i]            self.block1_layer.append(Sepconv_BN_Swish(in_channel,out_channel))        self.block1_layer.append(Identity())    def forward(self,x):        print('----block1----')        head_output = []  # 存放最终输出特征图        channel_list = []  # 存放block1_layer操作后通道变化        feat_size = []  # 存放特征图尺寸的列表        head_output.append(x[-1])        channel_list.append(x[-1].shape[1])        feat_size.append(x[-1].shape[2])        print(x[-1].shape)        for i in range(len(x)-1):            size = x[-2-i].shape[2:]            if i == 0:  # 看3.2图,上采样输入在第一次是P7,后三次是过3x3和1x1卷积                pre_upsampling = x[-1]            else:                pre_upsampling = N_layer  # N_layer来自第一次循环产生的            upsampling = F.interpolate(pre_upsampling,size=size)  # 上采样操作            pre_N = paddle.concat([upsampling,x[-2-i]], 1)  #  concat链接            N_layer = self.block1_layer[i](pre_N)  #  过3x3和1x1卷积,最后一个是Identity(看本代码块12行)            if i < len(x)-2:  # P(4,5,6)跨层连接,P7无跨层连接操作                pre_block2 = paddle.concat([N_layer,x[-2-i]],1)            else:                pre_block2 = N_layer            head_output.append(pre_block2)            channel_list.append(pre_block2.shape[1])            feat_size.append(pre_block2.shape[2])            print(pre_block2.shape)                return channel_list, head_output, max(feat_size)  # max(feat_size)获取所有特征图的最大size,用于block2中的下采样

In [25]

# BiFPN_block2实现的操作是(3->5)这层的操作class BiFPN_block2(nn.Layer):    def __init__(self,in_channel_list,out_channel, max_size):        super(BiFPN_block2, self).__init__()        self.block2_layer=[]  # 用于5个存放彩色节点模块        for i in range(len(in_channel_list)):             if i == 0:                in_channel = in_channel_list[-1]            else:                in_channel = in_channel_list[-1-i] + out_channel            self.block2_layer.append(Sepconv_BN_Swish(in_channel,out_channel))        downsampling_size = max_size  # P3 size(特征图最大size),用于下采样        self.max_pool=[]        for i in range(len(in_channel_list)-1):  # 用于4个下采样模块            self.max_pool.append(nn.AdaptiveMaxPool2D(downsampling_size//2))            downsampling_size = downsampling_size//2    def forward(self,x):        print('----block2----')        head_output=[]  # 存放最终输出特征图        corent_block2 = self.block2_layer[0](x[-1])        head_output.append(corent_block2)        print(corent_block2.shape)        for i in range(len(x)-1):            downsampling = self.max_pool[i](corent_block2)  # 获取上层下采样结果            pre_block2 = paddle.concat([downsampling,x[-2-i]],1)  # 将下采样结果和block1的输出concat            corent_block2 = self.block2_layer[1+i](pre_block2)  # 过3x3和1x1卷积            head_output.append(corent_block2)            print(corent_block2.shape)                return head_output

In [14]

# 将BiFPN_block1和将BiFPN_block2合并class BiFPN_block(nn.Layer):    def __init__(self,in_channel_list,out_channel):        super(BiFPN_block, self).__init__()        self.out_channel = out_channel        self.bifpn_block1 = BiFPN_block1(in_channel_list, out_channel)    def forward(self,x):        block1_channel_list, out, max_size = self.bifpn_block1(x)        bifpn_block2 = BiFPN_block2(block1_channel_list, self.out_channel, max_size)        out = bifpn_block2(out)                return out

In [15]

# 将BiFPN_block构建为num个,这里需要注意第一个BiFPN_block和第二个BiFPN_block输入特征图通道数的区别,# 后续(3、4...)输入特征图通道数均和第二个BiFPN_block相同class BiFPN(nn.Layer):    def __init__(self,in_channel_list0,out_channel,num):        super(BiFPN, self).__init__()        self.bifpn_layer=[]        in_channel_list1=[]        for i in range(len(in_channel_list0)):            in_channel_list1.append(out_channel)        for i in range(num):            if i==0:                in_channel_list = in_channel_list0            else:                in_channel_list = in_channel_list1            self.bifpn_layer.append(BiFPN_block(in_channel_list,out_channel))    def forward(self,x):        out = x        for layer in self.bifpn_layer:            print('--------bifpn_layer--------')            out = layer(out)                return out

In [26]

# 以5个特征图为例model = ResNet18()x = paddle.randn([2, 3, 64, 64])fpn_list = model(x)c_to_p = C_to_P()out = c_to_p(fpn_list)in_channel_list = [64,128,256,512,512]out_channel = 256bifpn_num = 3bifpn = BiFPN(in_channel_list,out_channel,bifpn_num)out = bifpn(out)
--------bifpn_layer------------block1----[2, 512, 4, 4][2, 768, 8, 8][2, 512, 16, 16][2, 384, 32, 32][2, 320, 64, 64]----block2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8][2, 256, 4, 4]--------bifpn_layer------------block1----[2, 256, 4, 4][2, 512, 8, 8][2, 512, 16, 16][2, 512, 32, 32][2, 512, 64, 64]----block2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8][2, 256, 4, 4]--------bifpn_layer------------block1----[2, 256, 4, 4][2, 512, 8, 8][2, 512, 16, 16][2, 512, 32, 32][2, 512, 64, 64]----block2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8][2, 256, 4, 4]

In [27]

# 以4个特征图为例model = ResNet18()x = paddle.randn([2, 3, 64, 64])fpn_list = model(x)in_channel_list = [64,128,256,512]out_channel = 256bifpn_num = 5bifpn = BiFPN(in_channel_list,out_channel,bifpn_num)out = bifpn(fpn_list)
--------bifpn_layer------------block1----[2, 512, 8, 8][2, 512, 16, 16][2, 384, 32, 32][2, 320, 64, 64]----block2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8]--------bifpn_layer------------block1----[2, 256, 8, 8][2, 512, 16, 16][2, 512, 32, 32][2, 512, 64, 64]----block2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8]--------bifpn_layer------------block1----[2, 256, 8, 8][2, 512, 16, 16][2, 512, 32, 32][2, 512, 64, 64]----block2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8]--------bifpn_layer------------block1----[2, 256, 8, 8][2, 512, 16, 16][2, 512, 32, 32][2, 512, 64, 64]----block2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8]--------bifpn_layer------------block1----[2, 256, 8, 8][2, 512, 16, 16][2, 512, 32, 32][2, 512, 64, 64]----block2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8]

In [21]

# 以6个特征图为例model = ResNet18()x = paddle.randn([2, 3, 64, 64])fpn_list = model(x)c_to_p1 = C_to_P(inputs_size=8)out = c_to_p1(fpn_list)c_to_p2 = C_to_P(inputs_size=4)out = c_to_p2(out)in_channel_list = [64,128,256,512,512,512]out_channel = 256bifpn_num = 5bifpn = BiFPN(in_channel_list,out_channel,bifpn_num)out = bifpn(out)
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/nn/layer/norm.py:653: UserWarning: When training, we now always track global mean and variance.  "When training, we now always track global mean and variance.")
--------bifpn_layer------------1----[2, 512, 2, 2][2, 768, 4, 4][2, 768, 8, 8][2, 512, 16, 16][2, 384, 32, 32][2, 320, 64, 64]----2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8][2, 256, 4, 4][2, 256, 2, 2]--------bifpn_layer------------1----[2, 256, 2, 2][2, 512, 4, 4][2, 512, 8, 8][2, 512, 16, 16][2, 512, 32, 32][2, 512, 64, 64]----2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8][2, 256, 4, 4][2, 256, 2, 2]--------bifpn_layer------------1----[2, 256, 2, 2][2, 512, 4, 4][2, 512, 8, 8][2, 512, 16, 16][2, 512, 32, 32][2, 512, 64, 64]----2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8][2, 256, 4, 4][2, 256, 2, 2]--------bifpn_layer------------1----[2, 256, 2, 2][2, 512, 4, 4][2, 512, 8, 8][2, 512, 16, 16][2, 512, 32, 32][2, 512, 64, 64]----2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8][2, 256, 4, 4][2, 256, 2, 2]--------bifpn_layer------------1----[2, 256, 2, 2][2, 512, 4, 4][2, 512, 8, 8][2, 512, 16, 16][2, 512, 32, 32][2, 512, 64, 64]----2----[2, 256, 64, 64][2, 256, 32, 32][2, 256, 16, 16][2, 256, 8, 8][2, 256, 4, 4][2, 256, 2, 2]

以上就是FPN综述保姆级教程的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/55308.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月9日 20:18:00
下一篇 2025年11月9日 20:21:45

相关推荐

  • 程序性能优化有哪些常见的方法?

    程序性能优化方法包括:算法优化:选择时间复杂度更低的算法,减少循环和条件语句。数据结构选择:根据数据访问模式选择合适的数据结构,如查找树和哈希表。内存优化:避免创建不必要对象,释放不再使用的内存,使用内存池技术。线程优化:识别可并行化任务,优化线程同步机制。数据库优化:创建索引加快数据检索,优化查询…

    2025年12月18日
    000
  • 如何设计一个可重用的代码模板?

    设计可重用代码模板的原则包括:模块化、可参数化、通用性和文档化。实战案例演示了在 python 中创建文件并写入文本的模板。这些模板封装常见任务,提高可重用性,促进协作,并通过清晰的文档改善可理解性。 如何设计一个可重用的代码模板 简介 可重用代码模板是预先定义的代码片段,可以插入其他程序中,以节省…

    2025年12月18日
    000
  • C++技术中的调试:插件和扩展的创建与使用

    c++++调试中的插件和扩展可增强调试功能。插件使用visual studio创建(例如:自定义异常消息显示),而扩展通常用c#/python创建,可扩展调试器本身的功能(例如:在visual studio中调用python函数)。创建插件涉及定义一个导出的类,而扩展则专注于扩展调试器功能。集成时,…

    2025年12月18日
    000
  • 多线程和异步编程的调试方法有哪些?常见的错误和陷阱是什么?

    多线程和异步编程调试方法:使用现代调试器设置断点、检查变量和逐步执行代码;添加日志记录语句跟踪线程执行;使用可视化工具分析线程交互和识别瓶颈。 多线程和异步编程的调试方法 多线程和异步编程引入了一些独特的调试挑战,以下是一些常见的调试方法: 1. 使用调试器 现代调试器可以通过设置断点、检查变量值和…

    2025年12月18日
    000
  • 并发编程在人工智能和机器学习中的应用是什么?

    并发编程在人工智能和机器学习中的应用 并发编程是指允许多个任务或线程同时执行的能力。在人工智能(AI)和机器学习(ML)领域,并发编程至关重要,因为它允许同时执行多个计算密集型任务,从而显著提升性能和效率。 实战案例:并行神经网络训练 神经网络训练是一项计算密集型任务,需要处理大量数据。通过使用并发…

    2025年12月18日
    000
  • 函数重写最佳实践:发挥继承潜能,提升代码可维护性

    函数重写最佳实践:保证封装性:仅重写需要改变的行为。使用覆盖注释:明确表明重写父类方法。遵循 liskov 替换原则:派生类对象可替换父类对象,不改变程序行为。避免虚方法:重写更可取,提供更强类型检查。 函数重写最佳实践:发挥继承潜能,提升代码可维护性 在面向对象编程中,继承是实现代码重用和多态性的…

    2025年12月18日
    000
  • 并发编程中 C++ 函数与其他并发编程语言的对比?

    c++++ 并发编程中的函数包括线程(独立执行流)、协程(共享线程内轻量级任务)和异步操作(不阻塞线程进行任务执行)。与其他并行编程语言相比,c++ 的函数提供了 std::thread 类(线程)、boost::coroutine 库(协程)和 std::async 函数(异步操作)。例如,std…

    2025年12月18日
    000
  • lambda 表达式如何改善代码的可读性和简洁性?

    是的,lambda 表达式通过消除匿名内部类、减少冗余并增强可读性,提升了 java 代码的可读性、简洁性和可维护性。这些好处包括:消除匿名内部类,避免创建临时类。减少冗余,移除不必要的代码块和方法名。增强可读性,使代码更流畅且易于理解。提高可维护性,更易于阅读的代码也更易于维护。 Lambda 表…

    2025年12月18日
    000
  • 闭包在测试和调试方面的作用是什麼?

    闭包在测试和调试中的作用包括:隔离测试,防止外部变量影响结果。调试难以到达的变量,保持对变量的访问和修改。缓存数据,提升程序性能。 闭包在测试和调试中的作用 什么是闭包? 闭包是一个函数,它能访问它定义所在作用域之外的变量。闭包将这些外部变量保存在内存中,即使定义它们的函数已执行完毕。 闭包在测试和…

    2025年12月18日
    000
  • C++ 函数的递归实现:递归在人工智能算法中的作用?

    递归函数通过调用自身并在特定条件下返回结果来实现。在人工智能算法中,递归广泛应用于深度优先搜索、动态规划、回溯和神经网络等技术。对于处理复杂问题,递归提供了高效且简洁的解决方案。 C++ 函数的递归实现:递归在人工智能算法中的作用 引言 递归是一种计算机科学技术,它允许函数调用自身。在某些情况下,递…

    2025年12月18日
    000
  • lambda 表达式与匿名函数有什么区别?

    lambda 表达式和匿名函数都是 python 中创建匿名函数的方法,但存在差异。赋值方式:lambda 表达式返回一个函数,而匿名函数必须赋值给变量才能使用。代码复杂度:lambda 表达式只能包含一个表达式,而匿名函数可以包含多个语句。 lambda 表达式与匿名函数:探索两者之间的差异 引言…

    2025年12月18日
    000
  • C语言和C++究竟是同一种语言吗?

    C语言和C++究竟是同一种语言吗? C语言和C++是两种流行的编程语言,它们有着共同的起源,但在语法、特性和用途上存在一些明显的区别。虽然它们在某些方面相似,但却并非完全相同。 起源和发展历程C语言是由贝尔实验室的Dennis Ritchie在20世纪70年代初开发的。它是一种过程性语言,主要用于系…

    2025年12月17日
    000
  • 探究C语言与C++之间的联系与区别

    探究C语言与C++之间的联系与区别 C语言和C++是两种流行的编程语言,它们有许多共同之处,也有很多不同之处。本文将探讨这两种语言之间的联系与区别,并通过具体的代码示例来进行比较。 C语言和C++之间的联系: C++是基于C语言发展而来的,因此两者之间有许多相似之处,比如语法结构、基本数据类型等。C…

    2025年12月17日
    000
  • “在C语言中,int&和int有何异同?”

    C中int&和int的区别是什么,需要具体代码示例 在C语言中,int&和int是两种不同的数据类型。它们的区别在于变量的声明方式以及对变量的操作方式。 变量的声明方式int&是引用类型的声明方式,而int是普通变量类型的声明方式。 下面是int&类型变量的声明方式:…

    2025年12月17日
    000
  • 如何在C语言编程中实现中文字符的编码和解码?

    在现代计算机编程中,C语言是一种非常常用的编程语言之一。尽管C语言本身并不直接支持中文编码和解码,但我们可以使用一些技术和库来实现这一功能。本文将介绍如何在C语言编程软件中实现中文编码和解码。 1、点击☞☞☞java速学教程(入门到精通)☜☜☜直接学习 2、点击☞☞☞python速学教程(入门到精通…

    2025年12月17日
    000
  • 探究字符常量和字符串常量的差异及其适用场景

    字符常量与字符串常量的区别是什么?探究字符常量和字符串常量的区别和应用场景,需要具体代码示例 在编程中,字符常量和字符串常量是有区别的。字符常量表示单个字符,而字符串常量表示由一系列字符组成的字符串。 首先,让我们来看字符常量。字符常量是单个字符,用单引号括起来表示。例如,’A&#821…

    2025年12月17日
    000
  • 在C语言中,fork()和exec()之间的区别是什么?

    在这里,我们将看到在C语言中fork()和exec()系统调用的效果。fork用于通过复制调用进程来创建一个新的进程。新进程是子进程。请参考以下属性。 子进程有自己独特的进程ID。子进程的父进程ID与调用进程的进程ID相同。子进程不继承父进程的内存锁和信号量。 fork()返回子进程的PID。如果值…

    2025年12月17日
    000
  • 使用Python中的Networkx创建一个循环图

    循环图是一种特殊的图,其中每个节点恰好有两个邻居,并以完整的循环方式与其他节点连接。使用 Python 的 Networkx 模块可以快速轻松地制作循环图。循环图是通过使用“networkx.cycle_graph()”函数和节点数生成的。该图经常用于各种应用,包括周期性现象的建模、圆形结构的表示以…

    2025年12月17日
    000
  • 数组队列和链表队列之间的区别

    介绍 队列是一种线性数据结构,按照特定顺序插入和移除队列元素。我们可以通过使用数组和链表来实现c++中的队列。这两种队列实现都有各自的优点和用途。在本教程中,我们将区分基于数组的队列和基于链表的队列。 什么是队列? 队列是一系列使用FIFO(先进先出)原则进行元素插入和删除的元素。计算机科学中的队列…

    2025年12月17日
    000
  • 宏与函数在C中的区别

    在本节中,我们将看到C语言中宏和函数之间的区别。宏是预处理的,这意味着在编译时将对所有宏进行预处理。函数不进行预处理,而是编译。 在宏中不进行类型检查,因此可能会出现不同类型输入的问题。而对于函数,这不会发生。此外,如果宏的输入没有正确维护,可能会产生一些无效的结果。请查看以下程序以了解问题。 示例…

    2025年12月17日
    000

发表回复

登录后才能评论
关注微信