Paddle2.0:浅析并实现 CaiT 模型

《Going deeper with Image Transformers》针对图像Transformer优化少的问题,研究构建和优化更深网络。提出LayerScale,在残差块输出乘对角线矩阵,改善训练动态以训练更深模型;设计类别注意力层,分离patch自注意与信息总结。所建CaiT模型在图像分类任务中表现出色。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

paddle2.0:浅析并实现 cait 模型 - 创想鸟

引入

Transformer 最近已在大规模图像分类任务中获得了很高的分数,这逐渐动摇了卷积神经网络的长期霸主地位。但是,到目前为止,对图像 Transformer 的优化还很少进行研究。在这项工作中,作者为图像分类建立和优化了更深的 Transformer 网络。特别是,我们研究了这种专用 Transformer 的架构和优化之间的相互作用。

相关资料

论文:Going deeper with Image Transformers官方实现:facebookresearch/deit

主要改进

这篇论文基于 ViT 和 DeiT 进行研究,探索实现更深层的 Image Transformer 模型的训练,主要有以下两点改进:使用 LayerScale 实现更深层的 Image Transformer 模型(Deeper image transformers with LayerScale)特别设计的类别注意力层(Specializing layers for class attention)

使用 LayerScale 实现更深层的 Image Transformer 模型

原理介绍

Vision Transformer 展示了一种特殊形式的残差结构:在将输入图像转换成一组向量之后,网络将自注意层(SA)与前馈网络(FFN)交替,如下所示:

Paddle2.0:浅析并实现 CaiT 模型 - 创想鸟(公式 1)

其中 η 代表 LayerNorm

但是这种结构无法很好的训练更深层的网络模型,在分析了不同的初始化、优化和体系结构设计之间的相互作用之后,作者提出了一种方法与现有的方法相比,这种方法可以有效地提高更深层的 Image Transformer 模型的训练效果形式上,在每个残差块的输出上添加一个可学习的对角矩阵,初始化接近于 0在每个残差块之后添加这个简单的层提高了训练动态性,允许我们训练更深层的受益于深度的大容量 Image Transformer 模型作者将这种方法称为 LayerScale (d),具体的结构对比示意图如下:

Paddle2.0:浅析并实现 CaiT 模型 - 创想鸟

作者建议的 LayerScale 是由每个残差块产生的向量的每通道相乘,而不是单个标量,见上图(d)。目标是将与同一输出通道相关联的权重的更新分组形式上,LayerScale 是在每个残差块的输出上乘以对角线矩阵,换言之,作者修改了上述的公式 1:

Paddle2.0:浅析并实现 CaiT 模型 - 创想鸟

其中 Paddle2.0:浅析并实现 CaiT 模型 - 创想鸟 和 Paddle2.0:浅析并实现 CaiT 模型 - 创想鸟 为可学习参数

ε 为对角线值的初始化值,一般为一个较小的数,作者设置为 ε=0.1 当深度小于等于 18 时,ε=10−5ε=10−5 当深度小于等于 24 时,和 ε=10−6ε=10−6 当深度大于 24 时

η 代表 LayerNorm

代码实现

class LayerScale_Block(nn.Layer):    # with slight modifications to add layerScale    def __init__(self, dim, num_heads, mlp_ratio=4., qkv_bias=False, qk_scale=None, drop=0., attn_drop=0.,                 drop_path=0., act_layer=nn.GELU, norm_layer=nn.LayerNorm, epsilon=1e-6,                 Attention_block=Attention_talking_head, Mlp_block=Mlp, init_values=1e-4):        super().__init__()        self.norm1 = norm_layer(dim, epsilon=epsilon)        self.attn = Attention_block(            dim,            num_heads=num_heads,            qkv_bias=qkv_bias,            qk_scale=qk_scale,            attn_drop=attn_drop,            proj_drop=drop        )        self.drop_path = DropPath(drop_path) if drop_path > 0. else Identity()        self.norm2 = norm_layer(dim, epsilon=epsilon)        mlp_hidden_dim = int(dim * mlp_ratio)        self.mlp = Mlp_block(            in_features=dim,            hidden_features=mlp_hidden_dim,            act_layer=act_layer,            drop=drop        )        # 创建 LayerScale 的两个可学习参数        # 使用 init_values 初始化这两个参数        self.gamma_1 = add_parameter(self, init_values * paddle.ones((dim,)))        self.gamma_2 = add_parameter(self, init_values * paddle.ones((dim,)))    def forward(self, x):        x = x + self.drop_path(self.gamma_1 * self.attn(self.norm1(x)))        x = x + self.drop_path(self.gamma_2 * self.mlp(self.norm2(x)))        return x

特别设计的类别注意力层

原理介绍

该设计旨在规避 ViT 体系结构的一个问题,学习的权重被要求优化两个矛盾的目标:引导 patch 之间的自注意总结信息对线性分类器有用作者建议是按照 Encoder-Decoder 体系结构的思想,显式地分离这两个阶段后置类别标记(Later class token):作者在 transformer 网络的中途添加 class token,这种选择消除了 transformer 第一层上的差异,因此完全用于在 patch 之间执行自注意在结构上 CaiT 网络由两个不同的处理阶段组成,如下图所示:self-attention stage 与 ViT 的 transformer 相同,但没有类嵌入 (CLS)class-attention stage 是一组层,它将一组 patch 嵌入到一个类嵌入 CLS 中,后者随后被提供给一个线性分类器

Paddle2.0:浅析并实现 CaiT 模型 - 创想鸟

代码实现

# Class Attention class Class_Attention(nn.Layer):    # with slight modifications to do CA    def __init__(self, dim, num_heads=8, qkv_bias=False,                  qk_scale=None, attn_drop=0., proj_drop=0.):        super().__init__()        self.num_heads = num_heads        head_dim = dim // num_heads        self.scale = qk_scale or head_dim ** -0.5        self.q = nn.Linear(dim, dim, bias_attr=qkv_bias)        self.k = nn.Linear(dim, dim, bias_attr=qkv_bias)        self.v = nn.Linear(dim, dim, bias_attr=qkv_bias)        self.attn_drop = nn.Dropout(attn_drop)        self.proj = nn.Linear(dim, dim)        self.proj_drop = nn.Dropout(proj_drop)    def forward(self, x):        # 输入是 [cls token, x]        # 输出是计算 attention 之后的 cls token        # 在多层堆叠的时候后面的 x 一直是不变的        B, N, C = x.shape                # query 只取 cls token        q = self.q(x[:, 0]).unsqueeze(1).reshape(            (B, 1, self.num_heads, C // self.num_heads)        ).transpose((0, 2, 1, 3))        k = self.k(x).reshape(            (B, N, self.num_heads, C // self.num_heads)        ).transpose((0, 2, 1, 3))        q = q * self.scale        v = self.v(x).reshape(            (B, N, self.num_heads, C // self.num_heads)        ).transpose((0, 2, 1, 3))        attn = q.matmul(k.transpose((0, 1, 3, 2)))        attn = nn.functional.softmax(attn, axis=-1)        attn = self.attn_drop(attn)        x_cls = (attn.matmul(v)).transpose((0, 2, 1, 3)).reshape((B, 1, C))        x_cls = self.proj(x_cls)        x_cls = self.proj_drop(x_cls)        return x_cls# 结合 LayerScale 和 Class Attentionclass LayerScale_Block_CA(nn.Layer):    # with slight modifications to add CA and LayerScale    def __init__(self, dim, num_heads, mlp_ratio=4., qkv_bias=False, qk_scale=None, drop=0., attn_drop=0.,                 drop_path=0., act_layer=nn.GELU, norm_layer=nn.LayerNorm, epsilon=1e-6,                 Attention_block=Class_Attention, Mlp_block=Mlp, init_values=1e-4):        super().__init__()        self.norm1 = norm_layer(dim, epsilon=epsilon)        self.attn = Attention_block(            dim,             num_heads=num_heads,             qkv_bias=qkv_bias,             qk_scale=qk_scale,             attn_drop=attn_drop,             proj_drop=drop        )        self.drop_path = DropPath(drop_path) if drop_path > 0. else Identity()        self.norm2 = norm_layer(dim, epsilon=epsilon)        mlp_hidden_dim = int(dim * mlp_ratio)        self.mlp = Mlp_block(            in_features=dim,             hidden_features=mlp_hidden_dim,             act_layer=act_layer,             drop=drop        )        self.gamma_1 = add_parameter(self, init_values * paddle.ones((dim,)))        self.gamma_2 = add_parameter(self, init_values * paddle.ones((dim,)))    def forward(self, x, x_cls):        # 拼接 cls token 和 输入        u = paddle.concat((x_cls, x), axis=1)                # Class Attention + FFN        x_cls = x_cls + self.drop_path(self.gamma_1 * self.attn(self.norm1(u)))        x_cls = x_cls + self.drop_path(self.gamma_2 * self.mlp(self.norm2(x_cls)))        return x_cls

模型搭建

上面介绍了 CaiT 模型的一些重要的改进点接下来就完整地搭建一下模型

模型组网

In [ ]

import paddleimport paddle.nn as nnfrom common import add_parameterfrom common import trunc_normal_, zeros_, ones_from common import DropPath, Identity, Mlp, PatchEmbedclass Class_Attention(nn.Layer):    # with slight modifications to do CA    def __init__(self, dim, num_heads=8, qkv_bias=False,                 qk_scale=None, attn_drop=0., proj_drop=0.):        super().__init__()        self.num_heads = num_heads        head_dim = dim // num_heads        self.scale = qk_scale or head_dim ** -0.5        self.q = nn.Linear(dim, dim, bias_attr=qkv_bias)        self.k = nn.Linear(dim, dim, bias_attr=qkv_bias)        self.v = nn.Linear(dim, dim, bias_attr=qkv_bias)        self.attn_drop = nn.Dropout(attn_drop)        self.proj = nn.Linear(dim, dim)        self.proj_drop = nn.Dropout(proj_drop)    def forward(self, x):        B, N, C = x.shape        q = self.q(x[:, 0]).unsqueeze(1).reshape(            (B, 1, self.num_heads, C // self.num_heads)        ).transpose((0, 2, 1, 3))        k = self.k(x).reshape(            (B, N, self.num_heads, C // self.num_heads)        ).transpose((0, 2, 1, 3))        q = q * self.scale        v = self.v(x).reshape(            (B, N, self.num_heads, C // self.num_heads)        ).transpose((0, 2, 1, 3))        attn = q.matmul(k.transpose((0, 1, 3, 2)))        attn = nn.functional.softmax(attn, axis=-1)        attn = self.attn_drop(attn)        x_cls = (attn.matmul(v)).transpose((0, 2, 1, 3)).reshape((B, 1, C))        x_cls = self.proj(x_cls)        x_cls = self.proj_drop(x_cls)        return x_clsclass LayerScale_Block_CA(nn.Layer):    # with slight modifications to add CA and LayerScale    def __init__(self, dim, num_heads, mlp_ratio=4., qkv_bias=False, qk_scale=None, drop=0., attn_drop=0.,                 drop_path=0., act_layer=nn.GELU, norm_layer=nn.LayerNorm, epsilon=1e-6,                 Attention_block=Class_Attention, Mlp_block=Mlp, init_values=1e-4):        super().__init__()        self.norm1 = norm_layer(dim, epsilon=epsilon)        self.attn = Attention_block(            dim,             num_heads=num_heads,             qkv_bias=qkv_bias,             qk_scale=qk_scale,             attn_drop=attn_drop,             proj_drop=drop        )        self.drop_path = DropPath(drop_path) if drop_path > 0. else Identity()        self.norm2 = norm_layer(dim, epsilon=epsilon)        mlp_hidden_dim = int(dim * mlp_ratio)        self.mlp = Mlp_block(            in_features=dim,             hidden_features=mlp_hidden_dim,             act_layer=act_layer,             drop=drop        )        self.gamma_1 = add_parameter(self, init_values * paddle.ones((dim,)))        self.gamma_2 = add_parameter(self, init_values * paddle.ones((dim,)))    def forward(self, x, x_cls):        u = paddle.concat((x_cls, x), axis=1)        x_cls = x_cls + self.drop_path(self.gamma_1 * self.attn(self.norm1(u)))        x_cls = x_cls + self.drop_path(self.gamma_2 * self.mlp(self.norm2(x_cls)))        return x_clsclass Attention_talking_head(nn.Layer):    # with slight modifications to add Talking Heads Attention (https://arxiv.org/pdf/2003.02436v1.pdf)    def __init__(self, dim, num_heads=8, qkv_bias=False,                 qk_scale=None, attn_drop=0., proj_drop=0.):        super().__init__()        self.num_heads = num_heads        head_dim = dim // num_heads        self.scale = qk_scale or head_dim ** -0.5        self.qkv = nn.Linear(dim, dim * 3, bias_attr=qkv_bias)        self.attn_drop = nn.Dropout(attn_drop)        self.proj = nn.Linear(dim, dim)        self.proj_l = nn.Linear(num_heads, num_heads)        self.proj_w = nn.Linear(num_heads, num_heads)        self.proj_drop = nn.Dropout(proj_drop)    def forward(self, x):        B, N, C = x.shape        qkv = self.qkv(x).reshape(            (B, N, 3, self.num_heads, C // self.num_heads)        ).transpose((2, 0, 3, 1, 4))        q, k, v = qkv[0] * self.scale, qkv[1], qkv[2]        attn = (q.matmul(k.transpose((0, 1, 3, 2))))        attn = self.proj_l(attn.transpose((0, 2, 3, 1))).transpose((0, 3, 1, 2))        attn = nn.functional.softmax(attn, axis=-1)        attn = self.proj_w(attn.transpose((0, 2, 3, 1))).transpose((0, 3, 1, 2))        attn = self.attn_drop(attn)        x = (attn.matmul(v)).transpose((0, 2, 1, 3)).reshape((B, N, C))        x = self.proj(x)        x = self.proj_drop(x)        return xclass LayerScale_Block(nn.Layer):    # with slight modifications to add layerScale    def __init__(self, dim, num_heads, mlp_ratio=4., qkv_bias=False, qk_scale=None, drop=0., attn_drop=0.,                 drop_path=0., act_layer=nn.GELU, norm_layer=nn.LayerNorm, epsilon=1e-6,                 Attention_block=Attention_talking_head, Mlp_block=Mlp, init_values=1e-4):        super().__init__()        self.norm1 = norm_layer(dim, epsilon=epsilon)        self.attn = Attention_block(            dim,             num_heads=num_heads,             qkv_bias=qkv_bias,             qk_scale=qk_scale,             attn_drop=attn_drop,             proj_drop=drop        )        self.drop_path = DropPath(drop_path) if drop_path > 0. else Identity()        self.norm2 = norm_layer(dim, epsilon=epsilon)        mlp_hidden_dim = int(dim * mlp_ratio)        self.mlp = Mlp_block(            in_features=dim,             hidden_features=mlp_hidden_dim,             act_layer=act_layer,             drop=drop        )        self.gamma_1 = add_parameter(self, init_values * paddle.ones((dim,)))        self.gamma_2 = add_parameter(self, init_values * paddle.ones((dim,)))    def forward(self, x):        x = x + self.drop_path(self.gamma_1 * self.attn(self.norm1(x)))        x = x + self.drop_path(self.gamma_2 * self.mlp(self.norm2(x)))        return xclass CaiT(nn.Layer):    # with slight modifications to adapt to our cait models    def __init__(self, img_size=224, patch_size=16, in_chans=3, embed_dim=768, depth=12,                 num_heads=12, mlp_ratio=4, qkv_bias=True, qk_scale=None, drop_rate=0.,                 attn_drop_rate=0., drop_path_rate=0., norm_layer=nn.LayerNorm, epsilon=1e-6,                 block_layers=LayerScale_Block, block_layers_token=LayerScale_Block_CA,                 Patch_layer=PatchEmbed, act_layer=nn.GELU, Attention_block=Attention_talking_head,                 Mlp_block=Mlp, init_scale=1e-4, Attention_block_token_only=Class_Attention,                 Mlp_block_token_only=Mlp, depth_token_only=2, mlp_ratio_clstk=4.0, class_dim=1000):        super().__init__()        self.class_dim = class_dim        self.num_features = self.embed_dim = embed_dim        self.patch_embed = Patch_layer(            img_size=img_size,             patch_size=patch_size,             in_chans=in_chans,             embed_dim=embed_dim        )        num_patches = self.patch_embed.num_patches        self.cls_token = add_parameter(self, paddle.zeros((1, 1, embed_dim)))        self.pos_embed = add_parameter(self, paddle.zeros((1, num_patches, embed_dim)))        self.pos_drop = nn.Dropout(p=drop_rate)        dpr = [drop_path_rate for i in range(depth)]        self.blocks = nn.LayerList([            block_layers(                dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, qk_scale=qk_scale,                drop=drop_rate, attn_drop=attn_drop_rate, drop_path=dpr[i], norm_layer=norm_layer, epsilon=epsilon,                act_layer=act_layer, Attention_block=Attention_block, Mlp_block=Mlp_block, init_values=init_scale            ) for i in range(depth)        ])        self.blocks_token_only = nn.LayerList([            block_layers_token(                dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio_clstk, qkv_bias=qkv_bias, qk_scale=qk_scale,                drop=0.0, attn_drop=0.0, drop_path=0.0, norm_layer=norm_layer, epsilon=epsilon, act_layer=act_layer,                 Attention_block=Attention_block_token_only, Mlp_block=Mlp_block_token_only, init_values=init_scale            ) for i in range(depth_token_only)        ])        self.norm = norm_layer(embed_dim, epsilon=epsilon)        # Classifier head        if class_dim > 0:            self.head = nn.Linear(embed_dim, class_dim)        trunc_normal_(self.pos_embed)        trunc_normal_(self.cls_token)        self.apply(self._init_weights)    def _init_weights(self, m):        if isinstance(m, nn.Linear):            trunc_normal_(m.weight)            if isinstance(m, nn.Linear) and m.bias is not None:                zeros_(m.bias)        elif isinstance(m, nn.LayerNorm):            zeros_(m.bias)            ones_(m.weight)    def forward_features(self, x):        B = x.shape[0]        x = self.patch_embed(x)        cls_tokens = self.cls_token.expand((B, -1, -1))        x = x + self.pos_embed        x = self.pos_drop(x)        for i, blk in enumerate(self.blocks):            x = blk(x)        for i, blk in enumerate(self.blocks_token_only):            cls_tokens = blk(x, cls_tokens)        x = paddle.concat((cls_tokens, x), axis=1)        x = self.norm(x)        return x[:, 0]    def forward(self, x):        x = self.forward_features(x)        if self.class_dim > 0:            x = self.head(x)        return x
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/layers/utils.py:26: DeprecationWarning: `np.int` is a deprecated alias for the builtin `int`. To silence this warning, use `int` by itself. Doing this will not modify any behavior and is safe. When replacing `np.int`, you may wish to use e.g. `np.int64` or `np.int32` to specify the precision. If you wish to review your current use, check the release note link for additional information.Deprecated in NumPy 1.20; for more details and guidance: https://numpy.org/devdocs/release/1.20.0-notes.html#deprecations  def convert_to_list(value, n, name, dtype=np.int):

预设模型

In [ ]

def cait_xxs_24(pretrained=False, **kwargs):    model = CaiT(        img_size=224, embed_dim=192, depth=24,        num_heads=4, init_scale=1e-5, **kwargs)    if pretrained:        params = paddle.load('data/data82724/CaiT_XXS24_224.pdparams')        model.set_dict(params)    return modeldef cait_xxs_36(pretrained=False, **kwargs):    model = CaiT(        img_size=224, embed_dim=192, depth=36,        num_heads=4, init_scale=1e-5, **kwargs)    if pretrained:        params = paddle.load('data/data82724/CaiT_XXS36_224.pdparams')        model.set_dict(params)            return modeldef cait_s_24(pretrained=False, **kwargs):    model = CaiT(        img_size=224, embed_dim=384, depth=24,        num_heads=8, init_scale=1e-5, **kwargs)    if pretrained:        params = paddle.load('data/data82724/CaiT_S24_224.pdparams')        model.set_dict(params)            return modeldef cait_xxs_24_384(pretrained=False, **kwargs):    model = CaiT(        img_size=384, embed_dim=192, depth=24,        num_heads=4, init_scale=1e-5, **kwargs)    if pretrained:        params = paddle.load('data/data82724/CaiT_XXS24_384.pdparams')        model.set_dict(params)            return modeldef cait_xxs_36_384(pretrained=False, **kwargs):    model = CaiT(        img_size=384, embed_dim=192, depth=36,        num_heads=4, init_scale=1e-5, **kwargs)    if pretrained:        params = paddle.load('data/data82724/CaiT_XXS36_384.pdparams')        model.set_dict(params)            return modeldef cait_xs_24_384(pretrained=False, **kwargs):    model = CaiT(        img_size=384, embed_dim=288, depth=24,        num_heads=6, init_scale=1e-5, **kwargs)    if pretrained:        params = paddle.load('data/data82724/CaiT_XS24_384.pdparams')        model.set_dict(params)            return modeldef cait_s_24_384(pretrained=False, **kwargs):    model = CaiT(        img_size=384, embed_dim=384, depth=24,        num_heads=8, init_scale=1e-5, **kwargs)    if pretrained:        params = paddle.load('data/data82724/CaiT_S24_384.pdparams')        model.set_dict(params)            return modeldef cait_s_36_384(pretrained=False, **kwargs):    model = CaiT(        img_size=384, embed_dim=384, depth=36,        num_heads=8, init_scale=1e-6, **kwargs)    if pretrained:        params = paddle.load('data/data82724/CaiT_S36_384.pdparams')        model.set_dict(params)            return modeldef cait_m_36_384(pretrained=False, **kwargs):    model = CaiT(        img_size=384, embed_dim=768, depth=36,        num_heads=16, init_scale=1e-6, **kwargs)    if pretrained:        params = paddle.load('data/data82724/CaiT_M36_384.pdparams')        model.set_dict(params)            return modeldef cait_m_48_448(pretrained=False, **kwargs):    model = CaiT(        img_size=448, embed_dim=768, depth=48,        num_heads=16, init_scale=1e-6, **kwargs)    if pretrained:        params = paddle.load('data/data82724/CaiT_M48_448.pdparams')        model.set_dict(params)            return model

模型测试

In [ ]

model = cait_xxs_24(True)random_input = paddle.randn((1, 3, 224, 224))out = model(random_input)print(out.shape)model.eval()out = model(random_input)print(out.shape)
[1, 1000][1, 1000]

精度验证

官方的论文标称精度如下:

Paddle2.0:浅析并实现 CaiT 模型 - 创想鸟

解压数据集

In [ ]

!mkdir ~/data/ILSVRC2012!tar -xf ~/data/data68594/ILSVRC2012_img_val.tar -C ~/data/ILSVRC2012

模型验证

In [11]

import osimport cv2import numpy as npimport paddleimport paddle.vision.transforms as Tfrom PIL import Image# 构建数据集class ILSVRC2012(paddle.io.Dataset):    def __init__(self, root, label_list, transform, backend='pil'):        self.transform = transform        self.root = root        self.label_list = label_list        self.backend = backend        self.load_datas()    def load_datas(self):        self.imgs = []        self.labels = []        with open(self.label_list, 'r') as f:            for line in f:                img, label = line[:-1].split(' ')                self.imgs.append(os.path.join(self.root, img))                self.labels.append(int(label))    def __getitem__(self, idx):        label = self.labels[idx]        image = self.imgs[idx]        if self.backend=='cv2':            image = cv2.imread(image)        else:            image = Image.open(image).convert('RGB')        image = self.transform(image)        return image.astype('float32'), np.array(label).astype('int64')    def __len__(self):        return len(self.imgs)val_transforms = T.Compose([    T.Resize(448, interpolation='bicubic'),    T.CenterCrop(448),    T.ToTensor(),    T.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])])# 配置模型model = cait_m_48_448(pretrained=True)model = paddle.Model(model)model.prepare(metrics=paddle.metric.Accuracy(topk=(1, 5)))# 配置数据集val_dataset = ILSVRC2012('data/ILSVRC2012', transform=val_transforms, label_list='data/data68594/val_list.txt', backend='pil')# 模型验证acc = model.evaluate(val_dataset, batch_size=64, num_workers=0, verbose=1)print(acc)
{'acc_top1': 0.86492, 'acc_top5': 0.97752}

以上就是Paddle2.0:浅析并实现 CaiT 模型的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/66780.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月12日 08:30:53
下一篇 2025年11月12日 08:55:41

相关推荐

  • 币安交易所注册奖励多少钱

    币安是全球领先的加密货币交易平台,提供现货、合约等多种交易服务,新用户注册可享交易返现、邀请奖励及限时活动奖励;1、打开币安App点击注册;2、选择邮箱、手机号或第三方账户注册;3、设定安全密码并完成验证码验证;4、进行身份认证(KYC)后即可解锁全部功能,奖励政策以官网为准,中国大陆用户需遵守当地…

    2025年12月8日 好文分享
    000
  • 币圈常用术语有哪些?币圈小白基础知识,新手必看!

    本文首先明确回答了新手进入数字资产领域需掌握的核心术语,并系统梳理了三大类基础概念:1、区块链是去中心化的公开账本,数字代币为区块链上的加密凭证,智能合约实现自动执行,公链允许无许可参与,去中心化确保权力分散;2、牛市指价格上涨的乐观市场,熊市为持续下跌的悲观行情,建仓是首次买入资产,HODL代表长…

    2025年12月8日
    000
  • BAS币是什么?如何运作?BAS代币经济与未来前景分析

    目录 什么是BNB Attestation Service(BAS)BNB Attestation Service解决了哪些问题1. 数据真实性和验证挑战2. 用户数据所有权危机3.访问控制和隐私限制4. Web3 应用限制BNB Attestation Service背后的故事BNB Attest…

    2025年12月8日 好文分享
    000
  • 币安Binance登陆注册最新入口

    一、币安最新注册登录入口 由于部分地区网络限制,用户可通过以下方式访问币安: 官网入口: APP下载: 安卓:。 iOS:。 二、币安平台简介 币安(Binance)成立于2017年,由赵长鹏(CZ)创立,是全球领先的加密货币交易平台,日均交易量超数百亿美元,支持1000+种数字货币交易。 核心优势…

    2025年12月8日
    000
  • MOMOFUN(MM币)是什么?它是如何运作的?MM币运作原理、代币经济学及未来发展介绍

    目录 MOMOFUN 价格分析 MOMOFUN 是什么? 人工智能驱动的AI代理 AI 池提供智能流动性 MOMOFUN的技术骨干:ELIZA框架 MOMOFUN 的 MemeFi 模型如何运作 MOMOFUN的未来 MOMOFUN 价格分析 **价格**0.003709 美元**市场价值**29,…

    2025年12月8日
    000
  • Cycle Network(CYC币)是什么?是一个好投资吗?CYC代币经济与空投领取指南

    目录 简单摘要什么是Cycle Network有多少个 CYC币CYC币空投领取CY币是什么Cycle Network 与以太坊Cycle Network背后的技术团队与起源重要新闻与事件CYC 是一项好的投资吗?常见问题解答 在不断拓展的区块链技术领域中,cycle network (cyc) 作…

    2025年12月8日 好文分享
    000
  • 数字货币VS加密货币VS稳定币核心区别

    数字货币、加密货币与稳定币三者构成互补而非替代关系,共同重塑金融基础设施。1. 数字货币是主权信用背书的法定货币电子化形式,具备法偿性、中心化治理与可编程支付特性,如数字元交易量突破2.1万亿;2. 加密货币基于区块链实现去中心化价值存储,依赖算法与共识机制,具有高波动性与原生生态,如比特币网络由超…

    2025年12月8日
    000
  • Pantera Capital合伙人:以太坊十年变迁,走向链上资本核心

    目录 关键提要以太坊愿景的起源以太坊的十年Pantera 的以太坊生态系统投资机构需求、 数字资产财库与以太坊供应格局的转变监管清晰化和以太坊基金会的战略转变最后的思考 关键提要 进入第二个十年,以太坊正在确立其作为稳定币、DeFi 和代币化资产基础层的地位。 数字资产国库券(DAT)正在减少代币流…

    2025年12月8日
    000
  • 如何判断自己是不是韭菜?韭菜是被交易成本割的,而不是被庄家割的

    如何判断自己是不是韭菜?韭菜是被交易成本割的 ,而不是被庄家割的 韭菜是币圈非常欢乐的一个词,好像几乎所有的朋友都自称韭菜。抛开玩笑成分,我们真应该避免做个韭菜,不然的话,真被割了。 人贵自知,到底要怎么判断自己是不是韭菜呢?这可能是一个好问题。我觉得有一个指标可以回答,就是自己的交易成本。 你使用…

    2025年12月8日
    000
  • BTC 转账手续费高吗?影响因素与付款速度优化方法

    比特币(btc)转账时的手续费并非固定,而是受到多种因素的动态影响。了解这些影响因素,可以帮助用户合理设置交易参数、降低转账成本,同时提升到账速度。本文将围绕 btc 手续费机制、链上拥堵情况与加速技巧,介绍如何实现高效又经济的转账体验。 Binance币安 官网直达: 安卓安装包下载: 欧易OKX…

    好文分享 2025年12月8日
    000
  • BTC 地址或私钥泄漏怎么办?资金安全紧急处理建议

    在加密资产管理中,私钥与地址的安全性至关重要,一旦私钥或助记词泄漏,等同于失去了对比特币资产的完全控制权。发生泄漏时,用户应立即采取有效措施,最大程度减少资产损失风险。以下是关于 btc 地址或私钥泄漏后的紧急处理建议。 Binance币安 官网直达: 安卓安装包下载: 欧易OKX ️ 官网直达: …

    2025年12月8日
    000
  • 用 ETH 兑换 USDC 或 DAI,手续费与到账速度比较

    将 eth 兑换为稳定币(如 usdc 或 dai)是常见的加密资产管理行为。在兑换过程中,用户需重点关注的核心问题包括:交易所选择、网络手续费成本、兑换滑点、到账时间等因素。下面将从手续费与到账速度两个角度,比较 eth 兑换 usdc 与 dai 的实际表现。 Binance币安 官网直达: 安…

    2025年12月8日
    000
  • 数字货币发展历史汇总

    数字货币起源于2008年金融危机期间中本聪发布的比特币白皮书,其核心是基于区块链技术的去中心化电子现金系统。1. 比特币的诞生标志着数字货币时代的开启,具备去中心化、匿名性、稀缺性、可编程性和不可篡改五大特性。2. 区块链作为底层技术,通过分布式账本、密码学哈希、共识机制、不可篡改性和智能合约,保障…

    2025年12月8日
    000
  • 什么是链上交互 新用户应该如何开始体验

    链上交互是用户与区块链网络进行直接互动的行为,包括授权、质押、交易、铸造nft等操作。本文将带你了解什么是链上交互,以及新用户如何安全、顺利地开始体验这一过程。 在进行链上交互前,建议选择支持链上操作的主流平台。比如,币安提供便捷的链上交易和一键质押工具,适合新手体验去中心化功能。 火币HTX也支持…

    2025年12月8日
    000
  • 深度剖析加密货币的技术底层架构

    加密货币的技术底层架构基于区块链,其核心特性为去中心化、安全性和不可篡改性。1. 区块链由“区块”和“链”构成,通过分布式账本、哈希函数、时间戳和默克尔树确保数据透明与安全;2. 共识机制如PoW、PoS和DPoS保障网络的数据一致性和安全性,其中PoW通过挖k竞争记账权;3. 加密学利用公钥加密、…

    2025年12月8日
    000
  • oe交易所app官网注册链接 oe交易平台官网APP安装注册详细教程

    oe交易所APP是一款提供多样化数字资产交易与管理服务的平台,适合希望进行专业化数字货币投资的用户。本文将为您提供oe交易所APP的官方下载链接,您只需点击本文提供的下载入口,即可轻松完成下载安装。本教程将为您详细介绍从下载到注册的完整流程,帮助您顺利开启交易之旅。 下载安装步骤 1、点击本文提供的…

    2025年12月8日 好文分享
    000
  • 数字货币投资指南:新手如何入门加密货币市场

    新手进入加密货币市场需先掌握基础概念、做好投资准备、选择可靠交易平台、学会交易操作并重视资产安全。1. 加密货币是基于密码学和区块链技术的去中心化数字资产,如比特币(BTC)和以太坊(ETH),其交易记录在不可篡改的分布式账本上。2. 投资前需完成五项准备:学习不同币种的技术与应用、评估自身风险承受…

    2025年12月8日
    000
  • 数字货币在跨境支付中的应用与挑战

    数字货币在跨境支付中的应用通过降低交易成本、提高速度和实现全天候交易展现出显著优势,主要模式包括1.直接点对点交易、2.通过交易所兑换、3.基于稳定币的支付、4.跨境汇款平台整合数字货币;其优势体现在1.降低交易成本、2.提高交易速度、3.实现全天候交易、4.增强透明度和安全性、5.消除中介壁垒;但…

    2025年12月8日 好文分享
    000
  • 如何用Web3赚钱?5种低门槛玩法,适合学生和上班族

    web3的浪潮不仅仅是技术圈的狂欢,它也为普通人打开了全新的收入可能性。告别那些“高深莫测”的印象吧!即便你是时间有限的学生或上班族,也能利用零碎时间,以较低的门槛参与其中。下面为你介绍五种简单易行的web3赚钱玩法。 2025年主流的交易所: 欧易okx:  币安binance:  火币htx: …

    2025年12月8日
    000
  • 区块链是什么?比特币、以太坊底层技术,5分钟通俗解读

    区块链是人人可参与、共同记账、公开透明且无法篡改的超级大账本;比特币是基于区块链的数字货币应用,以太坊则是在区块链上支持智能合约和去中心化应用的升级版平台。 想象一下,村里有个公共大账本,村民们每一次交易(比如张三卖给李四一只羊),都由村里的大喇叭广播给所有人。大家听到后,都在自己家的小账本上记下这…

    2025年12月8日
    000

发表回复

登录后才能评论
关注微信