复现篇:Vision Transform复现及讲解

本文介绍Vision Transformer,其不依赖CNN,适用于图像分类与迁移学习。含PatchEmbedding层(图片分块嵌入,加位置和分类token)、多头自注意力层、Encoder层(组合注意力与MLP等),整体结构在大型数据集上表现超SOTA模型。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

复现篇:vision transform复现及讲解 - 创想鸟

整体介绍

  当前Transformer模型被大量应用在NLP自然语言处理当中,而在计算机视觉领域,Transformer的注意力机制attention也被广泛应用,比如Se模块,CBAM模块等等注意力模块,这些注意力模块能够帮助提升网络性能。而我们的工作展示了不需要依赖CNN的结构,也可以在图像分类任务上达到很好的效果,并且也十分适合用于迁移学习。Vision Transformer将CV和NLP领域知识结合起来,对原始图片进行分块,展平成序列,输入进原始Transformer模型的编码器Encoder部分,最后接入一个全连接层对图片进行分类。在大型数据集上表现超过了当前SOTA模型

   

复现篇:Vision Transform复现及讲解 - 创想鸟        

PatchEmbedding层

PatchEmbeddingPatchEmbedding主要是将输入的图片进行”分词”,将图片转换成一个一个的小块传入,在NLP里就对应sequencesequence,具体来说,例如下图所示,我们传进去的是(3,28,28)(3,28,28)的图片,经过Embedding层之后就会变成16个7∗716个7∗7 的小块,之后通过flatten将(7,7,3)(7,7,3)打平成147个像素点,于是就变成(16,147)(16,147),16就是我们所说的numpatchsnumpatchs,147147再接上全连接层后对应的就是embeddimembeddim,在传进transformstransforms之前需要将每一个tokentoken附上每一块的位置信息和分类模块,这里叫positionembeddingpositionembedding和classtokenclasstoken,二者值的确定都是可学习的参数,需要经过神经网络的学习进行优化

复现篇:Vision Transform复现及讲解 - 创想鸟        

复现篇:Vision Transform复现及讲解 - 创想鸟        

In [7]

import paddleimport paddle.nn as nnclass PatchEmbedding(nn.Layer):    def __init__(self, image_size=224, patch_size=16, in_channels=3, embed_dim=768, dropout=0.):        super().__init__()        n_patches = (image_size // patch_size) * (image_size // patch_size)        self.patch_embedding = nn.Conv2D(in_channels=in_channels,                                         out_channels=embed_dim,                                         kernel_size=patch_size,                                         stride=patch_size)        self.dropout = nn.Dropout(dropout)        self.class_token = paddle.create_parameter(                shape=[1, 1, embed_dim],                dtype='float32',                default_initializer=nn.initializer.Constant(0.))        self.position_embedding = paddle.create_parameter(                shape=[1, n_patches+1, embed_dim],                dtype='float32',                default_initializer=nn.initializer.TruncatedNormal(std=.02))    def forward(self, x):        # [n, c, h, w]        clss_tokens = self.class_token.expand([x.shape[0], -1, -1]) # for batch,直接在第一个class_token后添加第一个X,之后将其拼接到X后        x = self.patch_embedding(x)  # [n, embed_dim, h', w']        x = x.flatten(2)        x = x.transpose([0, 2, 1])        x = paddle.concat([clss_tokens, x], axis=1)        return x

   

attention层

transformtransform里面最重要的部分可以说就是attentionattention层,attentionattention层的思路也是起源于NLP,为了找到每一个patchpatch与它附近的小块的信息,attentionattention的目的就是使每一个tokentoken注意到其他部分的信息,也叫自注意力机制。具体地,如下图所示,X是Embedding的输出,可以看到他的patch数量是3,也就是说有3个token,这里看到图中的WqWkWvWqWkWv和PP都是可学习的参数,其中我们将QKVQKV合成一个大的矩阵,目的是后续直接将该矩阵切成三份,QKQK的作用就是和其他的tokentoken做运算之后经过scaleforsoftmaxscaleforsoftmax,收集它们的信息,之后在和VV增加网络的复杂度

复现篇:Vision Transform复现及讲解 - 创想鸟        

In [8]

class Attention(nn.Layer):    """multi-head self attention"""    def __init__(self, embed_dim, num_heads, qkv_bias=True, dropout=0., attention_dropout=0.):        super().__init__()        self.num_heads = num_heads        self.head_dim = int(embed_dim / num_heads)        self.all_head_dim = self.head_dim * num_heads        self.scales = self.head_dim ** -0.5        self.qkv = nn.Linear(embed_dim,                             self.all_head_dim * 3)        self.proj = nn.Linear(embed_dim, embed_dim)        self.dropout = nn.Dropout(dropout)        self.attention_dropout = nn.Dropout(attention_dropout)        self.softmax = nn.Softmax(axis=-1)    def transpose_multihead(self, x):        # x: [N, num_patches, all_head_dim] -> [N, n_heads, num_patches, head_dim]        new_shape = x.shape[:-1] + [self.num_heads, self.head_dim]        x = x.reshape(new_shape)        x = x.transpose([0, 2, 1, 3])        return x    def forward(self, x):        B, N, _ = x.shape        # x -> [N, num_patches, dim]        # x -> q, k, v        qkv = self.qkv(x).chunk(3, axis=-1)  # 切分qkv        q, k, v = map(self.transpose_multihead, qkv)        attn = paddle.matmul(q, k, transpose_y=True) # q * k'        attn = attn * self.scales        attn = self.softmax(attn)        attn = self.attention_dropout(attn)        out = paddle.matmul(attn, v)         out = out.transpose([0, 2, 1, 3])        out = out.reshape([B, N, -1])        out = self.proj(out)                return out

   

Encoder层

可以看到,在实现最重要的attentionattention之后,还需要实现MLPMLP,layearnormalizelayearnormalize以及残差层链接,组成EncoderEncoder层,五个EncoderEncoder组成一个transformtransform,在每个EncoderEncoder以及每个MLPMLP,layearnormalizelayearnormalize都不会改变数据的维度,目的是我们增加层数时不会变更太多

复现篇:Vision Transform复现及讲解 - 创想鸟        

In [10]

class Identity(nn.Layer):    def __init__(self):        super().__init__()    def forward(self, x):        return xclass Mlp(nn.Layer):    def __init__(self, embed_dim, mlp_ratio, dropout=0.):        super().__init__()        self.fc1 = nn.Linear(embed_dim, int(embed_dim * mlp_ratio))        self.fc2 = nn.Linear(int(embed_dim * mlp_ratio), embed_dim)        self.act = nn.GELU()        self.dropout = nn.Dropout(dropout)    def forward(self, x):        x = self.fc1(x)        x = self.act(x)        x = self.dropout(x)        x = self.fc2(x)        x = self.dropout(x)        return xclass EncoderLayer(nn.Layer):    def __init__(self, embed_dim=768, num_heads=4, qkv_bias=True, mlp_ratio=4.0, dropout=0., attention_dropout=0.):        super().__init__()        self.attn_norm = nn.LayerNorm(embed_dim)        self.attn = Attention(embed_dim, num_heads)        self.mlp_norm = nn.LayerNorm(embed_dim)        self.mlp = Mlp(embed_dim, mlp_ratio)    def forward(self, x):        # TODO        h = x  # residual        x = self.attn_norm(x)        x = self.attn(x)        x = x + h        h = x        x = self.mlp_norm(x)        x = self.mlp(x)        x = x + h        return x        class Encoder(nn.Layer):    def __init__(self, embed_dim, depth):        super().__init__()        layer_list = []        for i in range(depth):            encoder_layer = EncoderLayer()            layer_list.append(encoder_layer)        self.layers = nn.LayerList(layer_list)        self.norm = nn.LayerNorm(embed_dim)    def forward(self, x):        for layer in self.layers:            x = layer(x)        x = self.norm(x)        return x  class VisualTransformer(nn.Layer):    def __init__(self,                 image_size=224,                 patch_size=16,                 in_channels=3,                 num_classes=1000,                 embed_dim=768,                 depth=3,                 num_heads=8,                 mlp_ratio=4,                 qkv_bias=True,                 dropout=0.,                 attention_dropout=0.,                 droppath=0.):        super().__init__()        self.patch_embedding = PatchEmbedding(image_size, patch_size, in_channels, embed_dim)        self.encoder = Encoder(embed_dim, depth)        self.classifier = nn.Linear(embed_dim, num_classes)    def forward(self, x):        # x:[N, C, H, W]        x = self.patch_embedding(x)  # [N, embed_dim, h', w']        # x = x.flatten(2)  # [N, embed_dim, h'*w'] h'*w'=num_patches        # x = x.transpose([0, 2, 1])  # [N, num_patches, embed_dim]        print(x.shape)        x = self.encoder(x)        print(x.shape)        x = self.classifier(x[:, 0])        return xdef main():    t = paddle.randn([4, 3, 224, 224])    vit = VisualTransformer()    out=vit(t)    print('aaaaaaaaaa',out.shape)    paddle.summary(vit, (4, 3, 224, 224)) #查看网络详细信息if __name__ == "__main__":    main()

   

以上就是复现篇:Vision Transform复现及讲解的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/47271.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月7日 22:53:50
下一篇 2025年11月7日 22:58:18

相关推荐

  • 怎样用免费工具美化PPT_免费美化PPT的实用方法分享

    利用KIMI智能助手可免费将PPT美化为科技感风格,但需核对文字准确性;2. 天工AI擅长优化内容结构,提升逻辑性,适合高质量内容需求;3. SlidesAI支持语音输入与自动排版,操作便捷,利于紧急场景;4. Prezo提供多种模板,自动生成图文并茂幻灯片,适合学生与初创团队。 如果您有一份内容完…

    2025年12月6日 软件教程
    100
  • Pages怎么协作编辑同一文档 Pages多人实时协作的流程

    首先启用Pages共享功能,点击右上角共享按钮并选择“添加协作者”,设置为可编辑并生成链接;接着复制链接通过邮件或社交软件发送给成员,确保其使用Apple ID登录iCloud后即可加入编辑;也可直接在共享菜单中输入邮箱地址定向邀请,设定编辑权限后发送;最后在共享面板中管理协作者权限,查看实时在线状…

    2025年12月6日 软件教程
    200
  • REDMI K90系列正式发布,售价2599元起!

    10月23日,redmi k90系列正式亮相,推出redmi k90与redmi k90 pro max两款新机。其中,redmi k90搭载骁龙8至尊版处理器、7100mah大电池及100w有线快充等多项旗舰配置,起售价为2599元,官方称其为k系列迄今为止最完整的标准版本。 图源:REDMI红米…

    2025年12月6日 行业动态
    200
  • Linux中如何安装Nginx服务_Linux安装Nginx服务的完整指南

    首先更新系统软件包,然后通过对应包管理器安装Nginx,启动并启用服务,开放防火墙端口,最后验证欢迎页显示以确认安装成功。 在Linux系统中安装Nginx服务是搭建Web服务器的第一步。Nginx以高性能、低资源消耗和良好的并发处理能力著称,广泛用于静态内容服务、反向代理和负载均衡。以下是在主流L…

    2025年12月6日 运维
    000
  • Linux journalctl与systemctl status结合分析

    先看 systemctl status 确认服务状态,再用 journalctl 查看详细日志。例如 nginx 启动失败时,systemctl status 显示 Active: failed,journalctl -u nginx 发现端口 80 被占用,结合两者可快速定位问题根源。 在 Lin…

    2025年12月6日 运维
    100
  • 华为新机发布计划曝光:Pura 90系列或明年4月登场

    近日,有数码博主透露了华为2025年至2026年的新品规划,其中pura 90系列预计在2026年4月发布,有望成为华为新一代影像旗舰。根据路线图,华为将在2025年底至2026年陆续推出mate 80系列、折叠屏新机mate x7系列以及nova 15系列,而pura 90系列则将成为2026年上…

    2025年12月6日 行业动态
    100
  • Linux如何优化系统性能_Linux系统性能优化的实用方法

    优化Linux性能需先监控资源使用,通过top、vmstat等命令分析负载,再调整内核参数如TCP优化与内存交换,结合关闭无用服务、选用合适文件系统与I/O调度器,持续按需调优以提升系统效率。 Linux系统性能优化的核心在于合理配置资源、监控系统状态并及时调整瓶颈环节。通过一系列实用手段,可以显著…

    2025年12月6日 运维
    000
  • 曝小米17 Air正在筹备 超薄机身+2亿像素+eSIM技术?

    近日,手机行业再度掀起超薄机型热潮,三星与苹果已相继推出s25 edge与iphone air等轻薄旗舰,引发市场高度关注。在此趋势下,多家国产厂商被曝正积极布局相关技术,加速抢占这一细分赛道。据业内人士消息,小米的超薄旗舰机型小米17 air已进入筹备阶段。 小米17 Pro 爆料显示,小米正在评…

    2025年12月6日 行业动态
    000
  • 荣耀手表5Pro 10月23日正式开启首销国补优惠价1359.2元起售

    荣耀手表5pro自9月25日开启全渠道预售以来,市场热度持续攀升,上市初期便迎来抢购热潮,一度出现全线售罄、供不应求的局面。10月23日,荣耀手表5pro正式迎来首销,提供蓝牙版与esim版两种选择。其中,蓝牙版本的攀登者(橙色)、开拓者(黑色)和远航者(灰色)首销期间享受国补优惠价,到手价为135…

    2025年12月6日 行业动态
    000
  • 环境搭建docker环境下如何快速部署mysql集群

    使用Docker Compose部署MySQL主从集群,通过配置文件设置server-id和binlog,编写docker-compose.yml定义主从服务并组网,启动后创建复制用户并配置主从连接,最后验证数据同步是否正常。 在Docker环境下快速部署MySQL集群,关键在于合理使用Docker…

    2025年12月6日 数据库
    000
  • Xbox删忍龙美女角色 斯宾塞致敬板垣伴信被喷太虚伪

    近日,海外游戏推主@HaileyEira公开发表言论,批评Xbox负责人菲尔·斯宾塞不配向已故的《死或生》与《忍者龙剑传》系列之父板垣伴信致敬。她指出,Xbox并未真正尊重这位传奇制作人的创作遗产,反而在宣传相关作品时对内容进行了审查和删减。 所涉游戏为年初推出的《忍者龙剑传2:黑之章》,该作采用虚…

    2025年12月6日 游戏教程
    000
  • 如何在mysql中分析索引未命中问题

    答案是通过EXPLAIN分析执行计划,检查索引使用情况,优化WHERE条件写法,避免索引失效,结合慢查询日志定位问题SQL,并根据查询模式合理设计索引。 当 MySQL 查询性能下降,很可能是索引未命中导致的。要分析这类问题,核心是理解查询执行计划、检查索引设计是否合理,并结合实际数据访问模式进行优…

    2025年12月6日 数据库
    000
  • VSCode入门:基础配置与插件推荐

    刚用VSCode,别急着装一堆东西。先把基础设好,再按需求加插件,效率高还不卡。核心就三步:界面顺手、主题舒服、功能够用。 设置中文和常用界面 打开软件,左边活动栏有五个图标,点最下面那个“扩展”。搜索“Chinese”,装上官方出的“Chinese (Simplified) Language Pa…

    2025年12月6日 开发工具
    000
  • php查询代码怎么写_php数据库查询语句编写技巧与实例

    在PHP中进行数据库查询,最常用的方式是使用MySQLi或PDO扩展连接MySQL数据库。下面介绍基本的查询代码写法、编写技巧以及实用示例,帮助你高效安全地操作数据库。 1. 使用MySQLi进行查询(面向对象方式) 这是较为推荐的方式,适合大多数中小型项目。 // 创建连接$host = ‘loc…

    2025年12月6日 后端开发
    000
  • 重现iPhone X颠覆性时刻!苹果2027年跳过19命名iPhone 20

    10月23日,有消息称,苹果或将再次调整iPhone的发布节奏,考虑跳过“iPhone 19”,并于2027年直接推出“iPhone 20”系列。 此举据传是为了庆祝初代iPhone发布二十周年,同时开启新一轮的设计革新,目标是复刻2017年iPhone X带来的划时代变革。 据悉,苹果或将告别长期…

    2025年12月6日 手机教程
    000
  • 如何在mysql中使用索引提高查询效率

    合理创建索引可显著提升MySQL查询效率,应优先为WHERE、JOIN、ORDER BY等高频字段建立B-Tree复合索引,如CREATE INDEX idx_status_created ON users(status, created_at, id),并遵循最左前缀原则;避免在索引列使用函数或前…

    2025年12月6日 数据库
    000
  • Linux命令行中free命令的使用方法

    free命令用于查看Linux内存使用情况,包括总内存、已用、空闲、共享、缓存及可用内存;使用-h可读格式显示,-s周期刷新,-c限制次数,-t显示总计,帮助快速评估系统内存状态。 free命令用于显示Linux系统中内存和交换空间的使用情况,包括物理内存、已用内存、空闲内存以及缓存和缓冲区的占用情…

    2025年12月6日 运维
    000
  • 在 Java 中使用 Argparse4j 接收 Duration 类型参数

    本文介绍了如何使用 `net.sourceforge.argparse4j` 库在 Java 命令行程序中接收 `java.time.Duration` 类型的参数。由于 `Duration` 不是原始数据类型,需要通过自定义类型转换器或工厂方法来处理。文章提供了两种实现方案,分别基于 `value…

    2025年12月6日 java
    000
  • Linux命令行中tail -f命令的详细应用

    tail -f 用于实时监控文件新增内容,常用于日志查看;支持 -F 处理轮转、-n 指定行数、结合 grep 过滤,可监控多文件,需注意权限与资源释放。 tail -f 是 Linux 中一个非常实用的命令,主要用于实时查看文件的新增内容,尤其在监控日志文件时极为常见。它会持续输出文件末尾新增的数…

    2025年12月6日 运维
    000
  • Phaser 3游戏画布响应式布局:实现高度适配与宽度裁剪

    本文深入探讨phaser 3游戏画布在特定响应式场景下的布局策略,尤其是在需要画布高度适配父容器并允许左右内容裁剪时。通过结合phaser的scalemanager中的`height_controls_width`模式与精细的css布局,本教程将展示如何实现一个既能保持游戏画面比例,又能完美融入不同…

    2025年12月6日 web前端
    000

发表回复

登录后才能评论
关注微信