浅析并实现 CycleMLP,一种用于密集预测的类 MLP 模型

CycleMLP是用于视觉识别和密集预测的通用主干,相较MLP Mixer等模型,能处理不同图像大小,以线性计算复杂度实现局部窗口操作。其核心是Cycle FC,结合并行算子与Channel MLP,有5种模型。在ImageNet – 1K和ADE20K上表现优异,参数和计算量更少。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

浅析并实现 cyclemlp,一种用于密集预测的类 mlp 模型 - 创想鸟

引入

最近各种用于视觉方向的 MLP 模型层出不穷,比如:MLP Mixer、ResMLP 和 gMLP 等等今天就来简单介绍一个刚刚开源的新工作 CycleMLP,一种全新的用于视觉识别和密集预测的通用主干

相关资料

论文:CycleMLP: A MLP-like Architecture for Dense Prediction官方实现:ShoufaChen/CycleMLP

主要贡献

本文提出了一种简单的类 MLP 结构 CycleMLP,它是视觉识别和密集预测的通用主干,不同于 Modern MLP 结构,如 MLP Mixer、ResMLP 和 gMLP,后者的结构与图像大小相关,因此在目标检测和分割中不可行。与 Modern MLP 的方法相比,CycleMLP 有两个优点:(1) 它可以处理不同的图像大小(2) 利用局部窗口实现了图像大小的线性计算复杂度。相比之下,以前的 MLP 由于其完全空间连接而具有二次计算。作者建立了一系列模型,这些模型超越了现有的 MLP,在 ImageNet-1K 分类任务上与最先进的 Vision Transformer 模型,如 Swin-Transformer(83.3%)相比具有相当的精度(83.2%),但模型的参数量和 FLOPs 较少。同时,作者扩展了类 MLP 模型的适用性,使其成为密集预测任务的通用主干。CycleMLP 旨在为 MLP 模型的目标检测、实例分割和语义分割提供一个有竞争力的基线。特别是,CycleMLP 在 ADE20K 验证集上达到了 45.1 mIoU,与 Swin-Transformer(45.2 mIoU)相当。

Motivation

对比 Channel FC 和 Spatial FC:(a) Channel FC 在空间大小为 “1” 的通道维度中聚合要素。它处理各种输入尺度,但不能学习空间上下文。(b) Spatial FC 空间维度上有一个全球感受野。然而,它的参数大小是固定的,并且对于图像尺度具有二次计算复杂度。(c) Cycle FC 具有与 Channel FC 相同的线性复杂度,并且具有比 Channel FC 更大的感受野。

浅析并实现 CycleMLP,一种用于密集预测的类 MLP 模型 - 创想鸟

MLP block

对比 MLP Mixer:(a) MLP Mixer 利用沿空间维度的 Spatial MLP 进行上下文聚合。当输入比例变化并且计算复杂度与图像尺寸成二次函数关系时,该算子不能工作。(b) CycleMLP 使用 Cycle FC 进行空间投影,它能够处理任意比例,并且具有线性复杂度

浅析并实现 CycleMLP,一种用于密集预测的类 MLP 模型 - 创想鸟

Cycle FC Block

Cycle FC Block 如上图(b)所示。与上图(a)所示的开创性 MLP-Mixer Block 相比,Cycle FC Block 的关键区别在于,它利用作者提出的 Cycle FC 进行空间投影,并在上下文聚合和信息通信方面推进了模型。具体来说,Cycle FC Block 由三个并行的 Cycle FC 算子组成,后面是一个具有两个线性层的 Channel MLP 和一个介于两者之间的 GELU 非线性激活函数。在并行 Cycle FC 层和 Channel MLP 模块之前应用一个层形式 LayeNorm 层,和每个模块之后应用残差连接。

Pseudo-Kernel

在 Cycle FC 中,作者引入了 Pseudo-Kernel 的概念。如下图所示,将 Cycle FC 的采样点(橙色块)投影到空间表面,并将投影区域定义为伪核大小。

浅析并实现 CycleMLP,一种用于密集预测的类 MLP 模型 - 创想鸟

爱图表 爱图表

AI驱动的智能化图表创作平台

爱图表 305 查看详情 爱图表

模型架构

作者设计五个不同大小的 CycleMLP 模型,具体细节如下表所示:

浅析并实现 CycleMLP,一种用于密集预测的类 MLP 模型 - 创想鸟

精度表现

对比其他视觉 MLP 和 Transformers,CycleMLP 的模型精度如下图所示:

浅析并实现 CycleMLP,一种用于密集预测的类 MLP 模型 - 创想鸟

代码实现

更新 Paddle

由于一些奇奇怪怪的原因,需要先手动更新 Paddle 的版本In [1]

!pip install paddlepaddle-gpu==2.1.1.post101 -f https://paddlepaddle.org.cn/whl/mkl/stable.html

模型搭建

In [2]

import osimport mathimport paddleimport paddle.nn as nnfrom common import DropPath, Identityfrom common import add_parameter, _calculate_fan_in_and_fan_out, to_2tuplefrom common import zeros_, ones_, trunc_normal_from paddle.vision.ops import deform_conv2dfrom paddle.nn.initializer import Uniform, KaimingNormal class Mlp(nn.Layer):    def __init__(self, in_features, hidden_features=None, out_features=None, act_layer=nn.GELU, drop=0.):        super().__init__()        out_features = out_features or in_features        hidden_features = hidden_features or in_features        self.fc1 = nn.Linear(in_features, hidden_features)        self.act = act_layer()        self.fc2 = nn.Linear(hidden_features, out_features)        self.drop = nn.Dropout(drop)    def forward(self, x):        x = self.fc1(x)        x = self.act(x)        x = self.drop(x)        x = self.fc2(x)        x = self.drop(x)        return xclass CycleFC(nn.Layer):    def __init__(        self,        in_channels: int,        out_channels: int,        kernel_size,  # re-defined kernel_size, represent the spatial area of staircase FC        stride: int = 1,        padding: int = 0,        dilation: int = 1,        groups: int = 1,        bias: bool = True,    ):        super(CycleFC, self).__init__()        if in_channels % groups != 0:            raise ValueError('in_channels must be divisible by groups')        if out_channels % groups != 0:            raise ValueError('out_channels must be divisible by groups')        if stride != 1:            raise ValueError('stride must be 1')        if padding != 0:            raise ValueError('padding must be 0')        self.in_channels = in_channels        self.out_channels = out_channels        self.kernel_size = kernel_size        self.stride = to_2tuple(stride)        self.padding = to_2tuple(padding)        self.dilation = to_2tuple(dilation)        self.groups = groups        self.weight = add_parameter(self, paddle.empty((out_channels, in_channels // groups, 1, 1)))  # kernel size == 1        if bias:            self.bias = add_parameter(self, paddle.empty((out_channels,)))        else:            self.add_parameter('bias', None)        self.register_buffer('offset', self.gen_offset())        self.reset_parameters()    def reset_parameters(self) -> None:        KaimingNormal(self.weight)        if self.bias is not None:            fan_in, _ = _calculate_fan_in_and_fan_out(self.weight)            bound = 1 / math.sqrt(fan_in)            Uniform(low=-bound, high=bound)(self.bias)    def gen_offset(self):        """        offset (Tensor[batch_size, 2 * offset_groups * kernel_height * kernel_width,            out_height, out_width]): offsets to be applied for each position in the            convolution kernel.        """        offset = paddle.empty((1, self.in_channels*2, 1, 1))        start_idx = (self.kernel_size[0] * self.kernel_size[1]) // 2        assert self.kernel_size[0] == 1 or self.kernel_size[1] == 1, self.kernel_size        for i in range(self.in_channels):            if self.kernel_size[0] == 1:                offset[0, 2 * i + 0, 0, 0] = 0                offset[0, 2 * i + 1, 0, 0] = (i + start_idx) % self.kernel_size[1] - (self.kernel_size[1] // 2)            else:                offset[0, 2 * i + 0, 0, 0] = (i + start_idx) % self.kernel_size[0] - (self.kernel_size[0] // 2)                offset[0, 2 * i + 1, 0, 0] = 0        return offset    def forward(self, input):        """        Args:            input (Tensor[batch_size, in_channels, in_height, in_width]): input tensor        """        B, C, H, W = input.shape        return deform_conv2d(input, self.offset.expand((B, -1, H, W)), self.weight, self.bias, stride=self.stride,                                padding=self.padding, dilation=self.dilation, deformable_groups=self.in_channels)class CycleMLP(nn.Layer):    def __init__(self, dim, qkv_bias=False, qk_scale=None, attn_drop=0., proj_drop=0.):        super().__init__()        self.mlp_c = nn.Linear(dim, dim, bias_attr=qkv_bias)        self.sfc_h = CycleFC(dim, dim, (1, 3), 1, 0)        self.sfc_w = CycleFC(dim, dim, (3, 1), 1, 0)        self.reweight = Mlp(dim, dim // 4, dim * 3)        self.proj = nn.Linear(dim, dim)        self.proj_drop = nn.Dropout(proj_drop)    def forward(self, x):        B, H, W, C = x.shape        h = self.sfc_h(x.transpose((0, 3, 1, 2))).transpose((0, 2, 3, 1))        w = self.sfc_w(x.transpose((0, 3, 1, 2))).transpose((0, 2, 3, 1))        c = self.mlp_c(x)        a = (h + w + c).transpose((0, 3, 1, 2)).flatten(2).mean(2)        a = nn.functional.softmax(self.reweight(a).reshape((B, C, 3)).transpose((2, 0, 1)), axis=0).unsqueeze(2).unsqueeze(2)        x = h * a[0] + w * a[1] + c * a[2]        x = self.proj(x)        x = self.proj_drop(x)        return xclass CycleBlock(nn.Layer):    def __init__(self, dim, mlp_ratio=4., qkv_bias=False, qk_scale=None, drop=0., attn_drop=0.,                drop_path=0., act_layer=nn.GELU, norm_layer=nn.LayerNorm, skip_lam=1.0, mlp_fn=CycleMLP):        super().__init__()        self.norm1 = norm_layer(dim)        self.attn = mlp_fn(dim, qkv_bias=qkv_bias, qk_scale=None, attn_drop=attn_drop)        # NOTE: drop path for stochastic depth, we shall see if this is better than dropout here        self.drop_path = DropPath(drop_path) if drop_path > 0. else Identity()        self.norm2 = norm_layer(dim)        mlp_hidden_dim = int(dim * mlp_ratio)        self.mlp = Mlp(in_features=dim, hidden_features=mlp_hidden_dim, act_layer=act_layer)        self.skip_lam = skip_lam    def forward(self, x):        x = x + self.drop_path(self.attn(self.norm1(x))) / self.skip_lam        x = x + self.drop_path(self.mlp(self.norm2(x))) / self.skip_lam        return xclass PatchEmbedOverlapping(nn.Layer):    """ 2D Image to Patch Embedding with overlapping    """    def __init__(self, patch_size=16, stride=16, padding=0, in_chans=3, embed_dim=768, norm_layer=None, groups=1):        super().__init__()        patch_size = to_2tuple(patch_size)        stride = to_2tuple(stride)        padding = to_2tuple(padding)        self.patch_size = patch_size        # remove image_size in model init to support dynamic image size        self.proj = nn.Conv2D(in_chans, embed_dim, kernel_size=patch_size, stride=stride, padding=padding, groups=groups)        self.norm = norm_layer(embed_dim) if norm_layer else Identity()    def forward(self, x):        x = self.proj(x)        return xclass Downsample(nn.Layer):    """ Downsample transition stage    """    def __init__(self, in_embed_dim, out_embed_dim, patch_size):        super().__init__()        assert patch_size == 2, patch_size        self.proj = nn.Conv2D(in_embed_dim, out_embed_dim, kernel_size=(3, 3), stride=(2, 2), padding=1)    def forward(self, x):        x = x.transpose((0, 3, 1, 2))        x = self.proj(x)  # B, C, H, W        x = x.transpose((0, 2, 3, 1))        return xdef basic_blocks(dim, index, layers, mlp_ratio=3., qkv_bias=False, qk_scale=None, attn_drop=0.,                drop_path_rate=0., skip_lam=1.0, mlp_fn=CycleMLP, **kwargs):    blocks = []    for block_idx in range(layers[index]):        block_dpr = drop_path_rate * (block_idx + sum(layers[:index])) / (sum(layers) - 1)        blocks.append(CycleBlock(dim, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, qk_scale=qk_scale,                    attn_drop=attn_drop, drop_path=block_dpr, skip_lam=skip_lam, mlp_fn=mlp_fn))    blocks = nn.Sequential(*blocks)    return blocksclass CycleNet(nn.Layer):    """ CycleMLP Network """    def __init__(self, layers, img_size=224, patch_size=4, in_chans=3, num_classes=1000,        embed_dims=None, transitions=None, segment_dim=None, mlp_ratios=None, skip_lam=1.0,        qkv_bias=False, qk_scale=None, drop_rate=0., attn_drop_rate=0., drop_path_rate=0.,        norm_layer=nn.LayerNorm, mlp_fn=CycleMLP, fork_feat=False):        super().__init__()        if not fork_feat:            self.num_classes = num_classes        self.fork_feat = fork_feat        self.patch_embed = PatchEmbedOverlapping(patch_size=7, stride=4, padding=2, in_chans=3, embed_dim=embed_dims[0])        network = []        for i in range(len(layers)):            stage = basic_blocks(embed_dims[i], i, layers, mlp_ratio=mlp_ratios[i], qkv_bias=qkv_bias,                                qk_scale=qk_scale, attn_drop=attn_drop_rate, drop_path_rate=drop_path_rate,                                norm_layer=norm_layer, skip_lam=skip_lam, mlp_fn=mlp_fn)            network.append(stage)            if i >= len(layers) - 1:                break            if transitions[i] or embed_dims[i] != embed_dims[i+1]:                patch_size = 2 if transitions[i] else 1                network.append(Downsample(embed_dims[i], embed_dims[i+1], patch_size))        self.network = nn.LayerList(network)        if self.fork_feat:            # add a norm layer for each output            self.out_indices = [0, 2, 4, 6]            for i_emb, i_layer in enumerate(self.out_indices):                if i_emb == 0 and os.environ.get('FORK_LAST3', None):                    # TODO: more elegant way                    """For RetinaNet, `start_level=1`. The first norm layer will not used.                    cmd: `FORK_LAST3=1 python -m torch.distributed.launch ...`                    """                    layer = Identity()                else:                    layer = norm_layer(embed_dims[i_emb])                layer_name = f'norm{i_layer}'                self.add_module(layer_name, layer)        else:            # Classifier head            self.norm = norm_layer(embed_dims[-1])            self.head = nn.Linear(embed_dims[-1], num_classes) if num_classes > 0 else Identity()        self.apply(self.cls_init_weights)    def cls_init_weights(self, m):        if isinstance(m, nn.Linear):            trunc_normal_(m.weight)            if isinstance(m, nn.Linear) and m.bias is not None:                zeros_(m.bias)        elif isinstance(m, nn.LayerNorm):            zeros_(m.bias)            ones_(m.weight)        elif isinstance(m, CycleFC):            trunc_normal_(m.weight)            zeros_(m.bias)    def forward_embeddings(self, x):        x = self.patch_embed(x)        # B,C,H,W-> B,H,W,C        x = x.transpose((0, 2, 3, 1))        return x    def forward_tokens(self, x):        outs = []        for idx, block in enumerate(self.network):            x = block(x)            if self.fork_feat and idx in self.out_indices:                norm_layer = getattr(self, f'norm{idx}')                x_out = norm_layer(x)                outs.append(x_out.transpose((0, 3, 1, 2)))        if self.fork_feat:            return outs        B, H, W, C = x.shape        x = x.reshape((B, -1, C))        return x    def forward(self, x):        x = self.forward_embeddings(x)        # B, H, W, C -> B, N, C        x = self.forward_tokens(x)        if self.fork_feat:            return x        x = self.norm(x)        cls_out = self.head(x.mean(1))        return cls_out

预设模型

In [3]

def CycleMLP_B1(pretrained=False, **kwargs):    transitions = [True, True, True, True]    layers = [2, 2, 4, 2]    mlp_ratios = [4, 4, 4, 4]    embed_dims = [64, 128, 320, 512]    model = CycleNet(layers, embed_dims=embed_dims, patch_size=7, transitions=transitions,                    mlp_ratios=mlp_ratios, mlp_fn=CycleMLP, **kwargs)    if pretrained:        params = paddle.load('data/data101687/CycleMLP_B1.pdparams')        model.set_dict(params)    return modeldef CycleMLP_B2(pretrained=False, **kwargs):    transitions = [True, True, True, True]    layers = [2, 3, 10, 3]    mlp_ratios = [4, 4, 4, 4]    embed_dims = [64, 128, 320, 512]    model = CycleNet(layers, embed_dims=embed_dims, patch_size=7, transitions=transitions,                    mlp_ratios=mlp_ratios, mlp_fn=CycleMLP, **kwargs)    if pretrained:        params = paddle.load('data/data101687/CycleMLP_B2.pdparams')        model.set_dict(params)    return modeldef CycleMLP_B3(pretrained=False, **kwargs):    transitions = [True, True, True, True]    layers = [3, 4, 18, 3]    mlp_ratios = [8, 8, 4, 4]    embed_dims = [64, 128, 320, 512]    model = CycleNet(layers, embed_dims=embed_dims, patch_size=7, transitions=transitions,                    mlp_ratios=mlp_ratios, mlp_fn=CycleMLP, **kwargs)    if pretrained:        params = paddle.load('data/data101687/CycleMLP_B3.pdparams')        model.set_dict(params)    return modeldef CycleMLP_B4(pretrained=False, **kwargs):    transitions = [True, True, True, True]    layers = [3, 8, 27, 3]    mlp_ratios = [8, 8, 4, 4]    embed_dims = [64, 128, 320, 512]    model = CycleNet(layers, embed_dims=embed_dims, patch_size=7, transitions=transitions,                    mlp_ratios=mlp_ratios, mlp_fn=CycleMLP, **kwargs)    if pretrained:        params = paddle.load('data/data101687/CycleMLP_B4.pdparams')        model.set_dict(params)    return modeldef CycleMLP_B5(pretrained=False, **kwargs):    transitions = [True, True, True, True]    layers = [3, 4, 24, 3]    mlp_ratios = [4, 4, 4, 4]    embed_dims = [96, 192, 384, 768]    model = CycleNet(layers, embed_dims=embed_dims, patch_size=7, transitions=transitions,                    mlp_ratios=mlp_ratios, mlp_fn=CycleMLP, **kwargs)    if pretrained:        params = paddle.load('data/data101687/CycleMLP_B5.pdparams')        model.set_dict(params)    return model

模型测试

In [4]

model = CycleMLP_B1(pretrained=True)x = paddle.randn((1, 3, 224, 224))out = model(x)print(out.shape)model.eval()out = model(x)print(out.shape)
[1, 1000][1, 1000]

精度测试

标称精度

官方开源项目中的标称精度如下表所示:

Model Parameters FLOPs Top 1 Acc.

CycleMLP-B115M2.1G78.9%CycleMLP-B227M3.9G81.6%CycleMLP-B338M6.9G82.4%CycleMLP-B452M10.1G83.0%CycleMLP-B576M12.3G83.2%

解压数据集

解压 ImageNet-1k 的验证集In [5]

!mkdir ~/data/ILSVRC2012!tar -xf ~/data/data68594/ILSVRC2012_img_val.tar -C ~/data/ILSVRC2012

模型验证

由于高层 API 的代码在 AIStudio + Paddle 2.1.0 环境中会崩溃,所以这里就运行不了了In [7]

import osimport cv2import numpy as npimport paddleimport paddle.vision.transforms as Tfrom PIL import Image# 构建数据集class ILSVRC2012(paddle.io.Dataset):    def __init__(self, root, label_list, transform, backend='pil'):        self.transform = transform        self.root = root        self.label_list = label_list        self.backend = backend        self.load_datas()    def load_datas(self):        self.imgs = []        self.labels = []        with open(self.label_list, 'r') as f:            for line in f:                img, label = line[:-1].split(' ')                self.imgs.append(os.path.join(self.root, img))                self.labels.append(int(label))    def __getitem__(self, idx):        label = self.labels[idx]        image = self.imgs[idx]        if self.backend=='cv2':            image = cv2.imread(image)        else:            image = Image.open(image).convert('RGB')        image = self.transform(image)        return image.astype('float32'), np.array(label).astype('int64')    def __len__(self):        return len(self.imgs)val_transforms = T.Compose([    T.Resize(248, interpolation='bicubic'),    T.CenterCrop(224),    T.ToTensor(),    T.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])])# 配置模型model = CycleMLP_B1(pretrained=True)model = paddle.Model(model)model.prepare(metrics=paddle.metric.Accuracy(topk=(1, 5)))# 配置数据集val_dataset = ILSVRC2012('data/ILSVRC2012', transform=val_transforms, label_list='data/data68594/val_list.txt', backend='pil')# 模型验证acc = model.evaluate(val_dataset, batch_size=8, num_workers=0, verbose=1)print(acc)
{'acc_top1': 0.78848, 'acc_top5': 0.94604}

总结

CycleMLP 是一种全新的能够用于密集预测的视觉 MLP 模型,更加适用于目标检测或者图像分割任务中在精度表现上,相比以往的 MLP 模型也有了进一步的提升。

以上就是浅析并实现 CycleMLP,一种用于密集预测的类 MLP 模型的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/743495.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月25日 16:28:28
下一篇 2025年11月25日 16:33:06

相关推荐

  • 怎样用免费工具美化PPT_免费美化PPT的实用方法分享

    利用KIMI智能助手可免费将PPT美化为科技感风格,但需核对文字准确性;2. 天工AI擅长优化内容结构,提升逻辑性,适合高质量内容需求;3. SlidesAI支持语音输入与自动排版,操作便捷,利于紧急场景;4. Prezo提供多种模板,自动生成图文并茂幻灯片,适合学生与初创团队。 如果您有一份内容完…

    2025年12月6日 软件教程
    100
  • Pages怎么协作编辑同一文档 Pages多人实时协作的流程

    首先启用Pages共享功能,点击右上角共享按钮并选择“添加协作者”,设置为可编辑并生成链接;接着复制链接通过邮件或社交软件发送给成员,确保其使用Apple ID登录iCloud后即可加入编辑;也可直接在共享菜单中输入邮箱地址定向邀请,设定编辑权限后发送;最后在共享面板中管理协作者权限,查看实时在线状…

    2025年12月6日 软件教程
    200
  • REDMI K90系列正式发布,售价2599元起!

    10月23日,redmi k90系列正式亮相,推出redmi k90与redmi k90 pro max两款新机。其中,redmi k90搭载骁龙8至尊版处理器、7100mah大电池及100w有线快充等多项旗舰配置,起售价为2599元,官方称其为k系列迄今为止最完整的标准版本。 图源:REDMI红米…

    2025年12月6日 行业动态
    200
  • Linux中如何安装Nginx服务_Linux安装Nginx服务的完整指南

    首先更新系统软件包,然后通过对应包管理器安装Nginx,启动并启用服务,开放防火墙端口,最后验证欢迎页显示以确认安装成功。 在Linux系统中安装Nginx服务是搭建Web服务器的第一步。Nginx以高性能、低资源消耗和良好的并发处理能力著称,广泛用于静态内容服务、反向代理和负载均衡。以下是在主流L…

    2025年12月6日 运维
    000
  • Linux journalctl与systemctl status结合分析

    先看 systemctl status 确认服务状态,再用 journalctl 查看详细日志。例如 nginx 启动失败时,systemctl status 显示 Active: failed,journalctl -u nginx 发现端口 80 被占用,结合两者可快速定位问题根源。 在 Lin…

    2025年12月6日 运维
    100
  • 华为新机发布计划曝光:Pura 90系列或明年4月登场

    近日,有数码博主透露了华为2025年至2026年的新品规划,其中pura 90系列预计在2026年4月发布,有望成为华为新一代影像旗舰。根据路线图,华为将在2025年底至2026年陆续推出mate 80系列、折叠屏新机mate x7系列以及nova 15系列,而pura 90系列则将成为2026年上…

    2025年12月6日 行业动态
    100
  • Linux如何优化系统性能_Linux系统性能优化的实用方法

    优化Linux性能需先监控资源使用,通过top、vmstat等命令分析负载,再调整内核参数如TCP优化与内存交换,结合关闭无用服务、选用合适文件系统与I/O调度器,持续按需调优以提升系统效率。 Linux系统性能优化的核心在于合理配置资源、监控系统状态并及时调整瓶颈环节。通过一系列实用手段,可以显著…

    2025年12月6日 运维
    000
  • Linux命令行中wc命令的实用技巧

    wc命令可统计文件的行数、单词数、字符数和字节数,常用-l统计行数,如wc -l /etc/passwd查看用户数量;结合grep可分析日志,如grep “error” logfile.txt | wc -l统计错误行数;-w统计单词数,-m统计字符数(含空格换行),-c统计…

    2025年12月6日 运维
    000
  • 曝小米17 Air正在筹备 超薄机身+2亿像素+eSIM技术?

    近日,手机行业再度掀起超薄机型热潮,三星与苹果已相继推出s25 edge与iphone air等轻薄旗舰,引发市场高度关注。在此趋势下,多家国产厂商被曝正积极布局相关技术,加速抢占这一细分赛道。据业内人士消息,小米的超薄旗舰机型小米17 air已进入筹备阶段。 小米17 Pro 爆料显示,小米正在评…

    2025年12月6日 行业动态
    000
  • 「世纪传奇刀片新篇」飞利浦影音双11声宴开启

    百年声学基因碰撞前沿科技,一场有关声音美学与设计美学的影音狂欢已悄然引爆2025“双十一”! 当绝大多数影音数码品牌还在价格战中挣扎时,飞利浦影音已然开启了一场跨越百年的“声”活革命。作为拥有深厚技术底蕴的音频巨头,飞利浦影音及配件此次“双十一”精准聚焦“传承经典”与“设计美学”两大核心,为热爱生活…

    2025年12月6日 行业动态
    000
  • 荣耀手表5Pro 10月23日正式开启首销国补优惠价1359.2元起售

    荣耀手表5pro自9月25日开启全渠道预售以来,市场热度持续攀升,上市初期便迎来抢购热潮,一度出现全线售罄、供不应求的局面。10月23日,荣耀手表5pro正式迎来首销,提供蓝牙版与esim版两种选择。其中,蓝牙版本的攀登者(橙色)、开拓者(黑色)和远航者(灰色)首销期间享受国补优惠价,到手价为135…

    2025年12月6日 行业动态
    000
  • 环境搭建docker环境下如何快速部署mysql集群

    使用Docker Compose部署MySQL主从集群,通过配置文件设置server-id和binlog,编写docker-compose.yml定义主从服务并组网,启动后创建复制用户并配置主从连接,最后验证数据同步是否正常。 在Docker环境下快速部署MySQL集群,关键在于合理使用Docker…

    2025年12月6日 数据库
    000
  • Linux文件系统rsync命令详解

    rsync通过增量同步高效复制文件,支持本地及远程同步,常用选项包括-a、-v、-z和–delete,结合SSH可安全传输数据,配合cron可实现定时备份。 rsync 是 Linux 系统中一个非常强大且常用的文件同步工具,能够高效地在本地或远程系统之间复制和同步文件与目录。它以“增量…

    2025年12月6日 运维
    000
  • Xbox删忍龙美女角色 斯宾塞致敬板垣伴信被喷太虚伪

    近日,海外游戏推主@HaileyEira公开发表言论,批评Xbox负责人菲尔·斯宾塞不配向已故的《死或生》与《忍者龙剑传》系列之父板垣伴信致敬。她指出,Xbox并未真正尊重这位传奇制作人的创作遗产,反而在宣传相关作品时对内容进行了审查和删减。 所涉游戏为年初推出的《忍者龙剑传2:黑之章》,该作采用虚…

    2025年12月6日 游戏教程
    000
  • 如何在mysql中分析索引未命中问题

    答案是通过EXPLAIN分析执行计划,检查索引使用情况,优化WHERE条件写法,避免索引失效,结合慢查询日志定位问题SQL,并根据查询模式合理设计索引。 当 MySQL 查询性能下降,很可能是索引未命中导致的。要分析这类问题,核心是理解查询执行计划、检查索引设计是否合理,并结合实际数据访问模式进行优…

    2025年12月6日 数据库
    000
  • VSCode入门:基础配置与插件推荐

    刚用VSCode,别急着装一堆东西。先把基础设好,再按需求加插件,效率高还不卡。核心就三步:界面顺手、主题舒服、功能够用。 设置中文和常用界面 打开软件,左边活动栏有五个图标,点最下面那个“扩展”。搜索“Chinese”,装上官方出的“Chinese (Simplified) Language Pa…

    2025年12月6日 开发工具
    000
  • VSCode性能分析与瓶颈诊断技术

    首先通过资源监控定位异常进程,再利用开发者工具分析性能瓶颈,结合禁用扩展、优化语言服务器配置及项目设置,可有效解决VSCode卡顿问题。 VSCode作为主流的代码编辑器,虽然轻量高效,但在处理大型项目或配置复杂扩展时可能出现卡顿、响应延迟等问题。要解决这些性能问题,需要系统性地进行性能分析与瓶颈诊…

    2025年12月6日 开发工具
    000
  • php查询代码怎么写_php数据库查询语句编写技巧与实例

    在PHP中进行数据库查询,最常用的方式是使用MySQLi或PDO扩展连接MySQL数据库。下面介绍基本的查询代码写法、编写技巧以及实用示例,帮助你高效安全地操作数据库。 1. 使用MySQLi进行查询(面向对象方式) 这是较为推荐的方式,适合大多数中小型项目。 // 创建连接$host = ‘loc…

    2025年12月6日 后端开发
    000
  • VSCode的悬浮提示信息可以自定义吗?

    可以通过JSDoc、docstring和扩展插件自定义VSCode悬浮提示内容,如1. 添加JSDoc或Python docstring增强信息;2. 调整hover延迟与粘性等显示行为;3. 使用支持自定义提示的扩展或开发hover provider实现深度定制,但无法直接修改HTML结构或手动编…

    2025年12月6日 开发工具
    000
  • php数据库如何实现数据缓存 php数据库减少查询压力的方案

    答案:PHP结合Redis等内存缓存系统可显著提升Web应用性能。通过将用户信息、热门数据等写入内存缓存并设置TTL,先查缓存未命中再查数据库,减少数据库压力;配合OPcache提升脚本执行效率,文件缓存适用于小型项目,数据库缓冲池优化和读写分离进一步提升性能,推荐Redis为主并防范缓存穿透与雪崩…

    2025年12月6日 后端开发
    000

发表回复

登录后才能评论
关注微信