Resnet18_by_paddlepaddle带你入门神经网络搭建

本文介绍基于PaddlePaddle框架复现ResNet18的项目,含详细注释助新手入门。代码定义了BasicBlock和ResNet类构建模型,提供Cifar10数据集下载及本地类ImageNet结构数据集的训练方法,设置20轮训练,验证准确率达0.7792,还包含模型保存步骤。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

resnet18_by_paddlepaddle带你入门神经网络搭建 - 创想鸟

由于不同版本的paddlepaddle框架有部分特性不同,且随着版本更新会弃用一些方法,但虽然弃用,为了适配旧的版本的项目,仍会保存在框架源码中,如果你使用的版本较新,请运行下框的代码;

In [1]

import warningswarnings.filterwarnings('ignore')

   

ResNet18 by paddlepaddle

本项目为使用paddlepaddle框架复现Resntet18,并添加大量注释作为入门文档,效果和各个框架封装的ResNet一致

运行配置为V100 32G,使用Cifar10验证时设置batch_size的大小为500时会占用约13.8G的显存,使用其他数据集时请调整batch_size大小防止爆显存

在Cifar数据集上,20轮大概可以达到AC率0.82,但实测调高轮次可以有更高的AC率

项目背景

很多成熟的,被认定有效的模型已经有完整的封装了,然而绝大部分模型都认为使用者是由足够知识基础的,而刚刚开始学习人工智能或学习使用人工智能的开发者往往没有足够的基础,甚至部分使用者是完全0基础的,本项目为基于paddlepaddle框架手写的Resnet18模型,并直接明确了各个函数的使用方法来帮助0基础的使用者入门,达到可以根据模型原论文/技术文档进行初步模型修改和调整的水平。

In [2]

import paddleimport paddle.nn as nnimport paddle.nn.functional as Fimport paddle.optimizer as optimimport paddle.vision.transforms as Timport paddle.vision.datasets as Dfrom paddle.io import DataLoader

   In [3]

# ResNet-18 模型定义# 这里使用python的class来进行基模块的定义,这个基模块会在后面搭建模型时使用class BasicBlock(nn.Layer):    expansion = 1    def __init__(self, in_channels, out_channels, stride=1, downsample=None):        # in_channels为输入大小, out_channels输出大小, stride为卷积步长, downsample为下采样        super(BasicBlock, self).__init__()# 继承一下自己        self.conv1 = nn.Conv2D(in_channels, out_channels, kernel_size=3, stride=stride, padding=1, bias_attr=False)        # Conv2D是paddle框架中封装好的对二位数据进行卷积的方法,和torch的封装结构一致,都封装在nn类中        # 这是第一个卷积层,卷积核大小为3*3,步长为1,padding为1,不使用bias(偏置)        self.bn1 = nn.BatchNorm2D(out_channels)        # 这是第一个BatchNorm层,对刚刚卷积后的数据进行批量归一化,out_channels为输出大小        self.relu = nn.ReLU()        # 这是Relu激活函数,归一化后进入Relu激活函数,进行线性向非线性的变换        self.conv2 = nn.Conv2D(out_channels, out_channels, kernel_size=3, stride=1, padding=1, bias_attr=False)        self.bn2 = nn.BatchNorm2D(out_channels)        self.downsample = downsample        self.stride = stride    def forward(self, x):# 在这里定义前向传播        identity = x                out = self.conv1(x)# 先定义一个值做个卷积        out = self.bn1(out)# 然后做个归一化        out = self.relu(out)# 再经过一次激活函数        out = self.conv2(out)# 接着卷积        out = self.bn2(out)# 继续归一化        if self.downsample is not None:# 在这里和进行对齐,避免无法进行残差链接            identity = self.downsample(x)        out += identity# 残差链接,这里直接将上次的计算结果作为残差链接上来        out = self.relu(out)        return out

   In [4]

class ResNet(nn.Layer):    def __init__(self, block, layer_configs, num_classes=1000):# block是一个可更换的基模块,这里我们用的是上面声明的BasicBlock        # layer_configs是一个列表,指定每个残差块组的块数量配置        super(ResNet, self).__init__()        self.in_channels = 64        self.conv1 = nn.Conv2D(3, 64, kernel_size=7, stride=2, padding=3, bias_attr=False)        self.bn1 = nn.BatchNorm2D(64)        self.relu = nn.ReLU()        self.maxpool = nn.MaxPool2D(kernel_size=3, stride=2, padding=1)                # 构建残差块组        self.layer1 = self._make_layer(block, 64, layer_configs[0])  # 第一个残差块组        self.layer2 = self._make_layer(block, 128, layer_configs[1], stride=2)  # 第二个残差块组,步长为2        self.layer3 = self._make_layer(block, 256, layer_configs[2], stride=2)  # 第三个残差块组,步长为2        self.layer4 = self._make_layer(block, 512, layer_configs[3], stride=2)  # 第四个残差块组,步长为2                self.avgpool = nn.AdaptiveAvgPool2D((1, 1))        self.fc = nn.Linear(512 * block.expansion, num_classes)     def _make_layer(self, block, out_channels, num_blocks, stride=1):        # 构建一个残差块组,包含多个残差块        # num_blocks: 残差块的数量        downsample = None        # 判断是否需要下采样        if stride != 1 or self.in_channels != out_channels * block.expansion:            downsample = nn.Sequential(                nn.Conv2D(self.in_channels, out_channels * block.expansion, kernel_size=1, stride=stride, bias_attr=False),                nn.BatchNorm2D(out_channels * block.expansion),            )         layers = []        layers.append(block(self.in_channels, out_channels, stride, downsample))        self.in_channels = out_channels * block.expansion        # 添加剩余的残差块,这些块不需要进行下采样        for _ in range(1, num_blocks):            layers.append(block(self.in_channels, out_channels))         return nn.Sequential(*layers)    def forward(self, x):        x = self.conv1(x)        x = self.bn1(x)        x = self.relu(x)        x = self.maxpool(x)        x = self.layer1(x)        x = self.layer2(x)        x = self.layer3(x)        x = self.layer4(x)        x = self.avgpool(x)        x = paddle.flatten(x, 1)        x = self.fc(x)        return x

   In [5]

def ResNet18(num_classes = 10):    return ResNet(BasicBlock, [2, 2, 2, 2],num_classes=num_classes)# 在这里声明ResNet18,列表是每层的块数量,num_classes是分类的类别数# 可以试试更改模块数量,这样也可以说是改了模型

   

训练

后面两个代码框为两种不同的数据集读取方法,第一个是调用封装好的接口从服务器上下载Cifar10的代码;

Levity Levity

AI帮你自动化日常任务

Levity 206 查看详情 Levity

第二个为使用本地的类似ImageNet数据存储结构的数据集进行训练的代码;

类似ImageNet的数据集存储结构:

数据集名称/
├── train/
│ ├── 类别1/
│ │ ├── 类别1训练图像1(后缀可能是jpg,jepg,png,bmp等)
│ │ ├── 类别1训练图像2
│ │ ├── …
│ ├── 类别2/
│ │ ├── 类别2训练图像1
│ │ ├── 类别2训练图像2
│ │ ├── …
│ ├── …
├── val/
│ ├── 类别1/
│ │ ├── 类别1验证图像1
│ │ ├── 类别1验证图像2
│ │ ├── …
│ ├── 类别2/
│ │ ├── 类别2验证图像1
│ │ ├── 类别2验证图像2
│ │ ├── …
│ ├── …

In [6]

# 如果想用本地数据集进行训练,就注释掉这段代码,使用下一个方框内的代码# 由于Cifar10数据集是使用API接口下载的,犹如数据集官方可能更新API,该段代码可能报错# 如果该段代码报错,请注释掉该段代码,阅读下个方框使用本地数据集进行测试# 数据预处理和加载transform = T.Compose([    T.Resize((224, 224)),# 这个Resize其实是不合理的,因为Cifar10的图像是3*32*32,这里Resize为224*224,这样会导致信息有损    # 但是ResNet本来就是设计为224x224大小的,修改这里的Resize大小需要同时修改ResNet的结构,本文为使Paddle的原生Resnet18,故不做更改    T.ToTensor(),    T.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),])train_dataset = D.Cifar10(mode='train', transform=transform)val_dataset = D.Cifar10(mode='test', transform=transform)train_loader = DataLoader(train_dataset, batch_size=500, shuffle=True, drop_last=True)val_loader = DataLoader(val_dataset, batch_size=500, shuffle=False)# 模型、损失函数和优化器device = paddle.set_device('gpu' if paddle.is_compiled_with_cuda() else 'cpu')model = ResNet18(num_classes=10)model = model.to(device)criterion = nn.CrossEntropyLoss()optimizer = optim.Adam(parameters=model.parameters(), learning_rate=0.001)'''print('该代码框已屏蔽')# 这行代码用于标记这个框的代码是否有运行'''

       

W1118 14:08:18.540472  8281 gpu_resources.cc:119] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 12.0, Runtime API Version: 11.8W1118 14:08:18.541822  8281 gpu_resources.cc:164] device: 0, cuDNN Version: 8.9.

       In [7]

'''# 如果要训练自己的数据集,就注释掉上面训练Cifar10的代码;# 注意,这段代码要求数据集的结构是 一个文件夹下有多个子文件夹,每个子文件夹的名称是标签,文件夹中的图片的训练图像# 这个文件的格式也是ImageNet的格式# 同时,这里还直接按读取到的子文件夹数量重新定义了ResNet18模型,可以不更改或不允许上面定义模型的代码# 在运行该段代码前,请解压data文件夹中的压缩包并修改路径到你的路径import osfrom PIL import Imageimport paddleimport paddle.nn as nnimport paddle.optimizer as optimimport paddle.vision.transforms as Tfrom paddle.io import DataLoader, Datasetfrom paddle.vision.models import resnet18# 自定义数据集类class CustomDataset(Dataset):    def __init__(self, root_dir, transform=None):        self.root_dir = root_dir        self.transform = transform        self.classes = sorted(os.listdir(root_dir))        self.class_to_idx = {cls_name: i for i, cls_name in enumerate(self.classes)}        self.images = []        self.labels = []        for cls_name in self.classes:            cls_dir = os.path.join(root_dir, cls_name)            for img_name in os.listdir(cls_dir):                img_path = os.path.join(cls_dir, img_name)                self.images.append(img_path)                self.labels.append(self.class_to_idx[cls_name])    def __len__(self):        return len(self.images)    def __getitem__(self, idx):        img_path = self.images[idx]        label = self.labels[idx]        image = Image.open(img_path).convert('RGB')        if self.transform:            image = self.transform(image)        return image, label# 数据预处理和加载transform = T.Compose([    T.Resize((224, 224)),    T.ToTensor(),    T.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),])# 这里是训练集和验证集的路径,按你的路径进行修改,这里的 “./”为从当前文件所处文件夹路径开始向下寻找,具体参考python的路径操作train_dataset = CustomDataset(root_dir='./data/data303405/Training', transform=transform)val_dataset = CustomDataset(root_dir='./data/data303405/Testing', transform=transform)train_loader = DataLoader(train_dataset, batch_size=100, shuffle=True, drop_last=True)val_loader = DataLoader(val_dataset, batch_size=100, shuffle=False)# 模型、损失函数和优化器device = paddle.set_device('gpu' if paddle.is_compiled_with_cuda() else 'cpu')num_classes = len(train_dataset.classes)  # 根据数据集的类别数调整模型输出类别数model = ResNet18(num_classes=num_classes)model = model.to(device)criterion = nn.CrossEntropyLoss()optimizer = optim.Adam(parameters=model.parameters(), learning_rate=0.001)#使用Adam优化器,初始学习率设置为0.001,也有很多其他优化器可以使用的,详细参考我都另一个项目或自行上网搜索# 训练和验证代码可以继续使用之前的代码'''print("该代码框已屏蔽")# 这行代码用于标记这个框的代码是否有运行

       

该代码框已屏蔽

       In [8]

# 训练循环num_epochs = 20 # 初始设置为20轮,可根据需求设置for epoch in range(num_epochs):    model.train()    for batch_id, (data, label) in enumerate(train_loader):        data, label = data.to(device), label.to(device)        optimizer.clear_grad()        output = model(data)        loss = criterion(output, label)        loss.backward()        optimizer.step()        if batch_id % 100 == 0:            print(f'Epoch [{epoch+1}/{num_epochs}], Step [{batch_id}/{len(train_loader)}], Loss: {loss.item():.4f}')    # 验证    model.eval()    correct = 0    total = 0    with paddle.no_grad():        for data, label in val_loader:            data, label = data.to(device), label.to(device)            output = model(data)            _, predicted = paddle.topk(output, k=1)            total += label.shape[0]            correct += (predicted.squeeze() == label).astype('int32').sum().item()    accuracy = correct / total    print(f'Validation Accuracy: {accuracy:.4f}')# 保存模型

       

Epoch [1/20], Step [0/100], Loss: 2.5338Validation Accuracy: 0.5208Epoch [2/20], Step [0/100], Loss: 1.0902Validation Accuracy: 0.5667Epoch [3/20], Step [0/100], Loss: 0.8355Validation Accuracy: 0.7028Epoch [4/20], Step [0/100], Loss: 0.6159Validation Accuracy: 0.7269Epoch [5/20], Step [0/100], Loss: 0.5030Validation Accuracy: 0.7329Epoch [6/20], Step [0/100], Loss: 0.3750Validation Accuracy: 0.7699Epoch [7/20], Step [0/100], Loss: 0.2447Validation Accuracy: 0.7211Epoch [8/20], Step [0/100], Loss: 0.1741Validation Accuracy: 0.6971Epoch [9/20], Step [0/100], Loss: 0.1621Validation Accuracy: 0.7412Epoch [10/20], Step [0/100], Loss: 0.0974Validation Accuracy: 0.8108Epoch [11/20], Step [0/100], Loss: 0.0910Validation Accuracy: 0.8014Epoch [12/20], Step [0/100], Loss: 0.0521Validation Accuracy: 0.7784Epoch [13/20], Step [0/100], Loss: 0.0537Validation Accuracy: 0.7974Epoch [14/20], Step [0/100], Loss: 0.0147Validation Accuracy: 0.8082Epoch [15/20], Step [0/100], Loss: 0.0145Validation Accuracy: 0.7944Epoch [16/20], Step [0/100], Loss: 0.0341Validation Accuracy: 0.7840Epoch [17/20], Step [0/100], Loss: 0.0514Validation Accuracy: 0.7840Epoch [18/20], Step [0/100], Loss: 0.0350Validation Accuracy: 0.8077Epoch [19/20], Step [0/100], Loss: 0.0221Validation Accuracy: 0.7882Epoch [20/20], Step [0/100], Loss: 0.0220Validation Accuracy: 0.7792

       In [9]

paddle.save(model.state_dict(), 'resnet18_cifar10.pdparams')# 保存一下权重

   

以上就是Resnet18_by_paddlepaddle带你入门神经网络搭建的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/741320.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月25日 15:32:06
下一篇 2025年11月25日 15:34:04

相关推荐

  • 怎样用免费工具美化PPT_免费美化PPT的实用方法分享

    利用KIMI智能助手可免费将PPT美化为科技感风格,但需核对文字准确性;2. 天工AI擅长优化内容结构,提升逻辑性,适合高质量内容需求;3. SlidesAI支持语音输入与自动排版,操作便捷,利于紧急场景;4. Prezo提供多种模板,自动生成图文并茂幻灯片,适合学生与初创团队。 如果您有一份内容完…

    2025年12月6日 软件教程
    000
  • Pages怎么协作编辑同一文档 Pages多人实时协作的流程

    首先启用Pages共享功能,点击右上角共享按钮并选择“添加协作者”,设置为可编辑并生成链接;接着复制链接通过邮件或社交软件发送给成员,确保其使用Apple ID登录iCloud后即可加入编辑;也可直接在共享菜单中输入邮箱地址定向邀请,设定编辑权限后发送;最后在共享面板中管理协作者权限,查看实时在线状…

    2025年12月6日 软件教程
    100
  • REDMI K90系列正式发布,售价2599元起!

    10月23日,redmi k90系列正式亮相,推出redmi k90与redmi k90 pro max两款新机。其中,redmi k90搭载骁龙8至尊版处理器、7100mah大电池及100w有线快充等多项旗舰配置,起售价为2599元,官方称其为k系列迄今为止最完整的标准版本。 图源:REDMI红米…

    2025年12月6日 行业动态
    200
  • Linux中如何安装Nginx服务_Linux安装Nginx服务的完整指南

    首先更新系统软件包,然后通过对应包管理器安装Nginx,启动并启用服务,开放防火墙端口,最后验证欢迎页显示以确认安装成功。 在Linux系统中安装Nginx服务是搭建Web服务器的第一步。Nginx以高性能、低资源消耗和良好的并发处理能力著称,广泛用于静态内容服务、反向代理和负载均衡。以下是在主流L…

    2025年12月6日 运维
    000
  • Linux journalctl与systemctl status结合分析

    先看 systemctl status 确认服务状态,再用 journalctl 查看详细日志。例如 nginx 启动失败时,systemctl status 显示 Active: failed,journalctl -u nginx 发现端口 80 被占用,结合两者可快速定位问题根源。 在 Lin…

    2025年12月6日 运维
    100
  • 华为新机发布计划曝光:Pura 90系列或明年4月登场

    近日,有数码博主透露了华为2025年至2026年的新品规划,其中pura 90系列预计在2026年4月发布,有望成为华为新一代影像旗舰。根据路线图,华为将在2025年底至2026年陆续推出mate 80系列、折叠屏新机mate x7系列以及nova 15系列,而pura 90系列则将成为2026年上…

    2025年12月6日 行业动态
    100
  • Linux如何优化系统性能_Linux系统性能优化的实用方法

    优化Linux性能需先监控资源使用,通过top、vmstat等命令分析负载,再调整内核参数如TCP优化与内存交换,结合关闭无用服务、选用合适文件系统与I/O调度器,持续按需调优以提升系统效率。 Linux系统性能优化的核心在于合理配置资源、监控系统状态并及时调整瓶颈环节。通过一系列实用手段,可以显著…

    2025年12月6日 运维
    000
  • Linux命令行中wc命令的实用技巧

    wc命令可统计文件的行数、单词数、字符数和字节数,常用-l统计行数,如wc -l /etc/passwd查看用户数量;结合grep可分析日志,如grep “error” logfile.txt | wc -l统计错误行数;-w统计单词数,-m统计字符数(含空格换行),-c统计…

    2025年12月6日 运维
    000
  • 曝小米17 Air正在筹备 超薄机身+2亿像素+eSIM技术?

    近日,手机行业再度掀起超薄机型热潮,三星与苹果已相继推出s25 edge与iphone air等轻薄旗舰,引发市场高度关注。在此趋势下,多家国产厂商被曝正积极布局相关技术,加速抢占这一细分赛道。据业内人士消息,小米的超薄旗舰机型小米17 air已进入筹备阶段。 小米17 Pro 爆料显示,小米正在评…

    2025年12月6日 行业动态
    000
  • 「世纪传奇刀片新篇」飞利浦影音双11声宴开启

    百年声学基因碰撞前沿科技,一场有关声音美学与设计美学的影音狂欢已悄然引爆2025“双十一”! 当绝大多数影音数码品牌还在价格战中挣扎时,飞利浦影音已然开启了一场跨越百年的“声”活革命。作为拥有深厚技术底蕴的音频巨头,飞利浦影音及配件此次“双十一”精准聚焦“传承经典”与“设计美学”两大核心,为热爱生活…

    2025年12月6日 行业动态
    000
  • 荣耀手表5Pro 10月23日正式开启首销国补优惠价1359.2元起售

    荣耀手表5pro自9月25日开启全渠道预售以来,市场热度持续攀升,上市初期便迎来抢购热潮,一度出现全线售罄、供不应求的局面。10月23日,荣耀手表5pro正式迎来首销,提供蓝牙版与esim版两种选择。其中,蓝牙版本的攀登者(橙色)、开拓者(黑色)和远航者(灰色)首销期间享受国补优惠价,到手价为135…

    2025年12月6日 行业动态
    000
  • 环境搭建docker环境下如何快速部署mysql集群

    使用Docker Compose部署MySQL主从集群,通过配置文件设置server-id和binlog,编写docker-compose.yml定义主从服务并组网,启动后创建复制用户并配置主从连接,最后验证数据同步是否正常。 在Docker环境下快速部署MySQL集群,关键在于合理使用Docker…

    2025年12月6日 数据库
    000
  • Xbox删忍龙美女角色 斯宾塞致敬板垣伴信被喷太虚伪

    近日,海外游戏推主@HaileyEira公开发表言论,批评Xbox负责人菲尔·斯宾塞不配向已故的《死或生》与《忍者龙剑传》系列之父板垣伴信致敬。她指出,Xbox并未真正尊重这位传奇制作人的创作遗产,反而在宣传相关作品时对内容进行了审查和删减。 所涉游戏为年初推出的《忍者龙剑传2:黑之章》,该作采用虚…

    2025年12月6日 游戏教程
    000
  • 如何在mysql中分析索引未命中问题

    答案是通过EXPLAIN分析执行计划,检查索引使用情况,优化WHERE条件写法,避免索引失效,结合慢查询日志定位问题SQL,并根据查询模式合理设计索引。 当 MySQL 查询性能下降,很可能是索引未命中导致的。要分析这类问题,核心是理解查询执行计划、检查索引设计是否合理,并结合实际数据访问模式进行优…

    2025年12月6日 数据库
    000
  • VSCode入门:基础配置与插件推荐

    刚用VSCode,别急着装一堆东西。先把基础设好,再按需求加插件,效率高还不卡。核心就三步:界面顺手、主题舒服、功能够用。 设置中文和常用界面 打开软件,左边活动栏有五个图标,点最下面那个“扩展”。搜索“Chinese”,装上官方出的“Chinese (Simplified) Language Pa…

    2025年12月6日 开发工具
    000
  • VSCode性能分析与瓶颈诊断技术

    首先通过资源监控定位异常进程,再利用开发者工具分析性能瓶颈,结合禁用扩展、优化语言服务器配置及项目设置,可有效解决VSCode卡顿问题。 VSCode作为主流的代码编辑器,虽然轻量高效,但在处理大型项目或配置复杂扩展时可能出现卡顿、响应延迟等问题。要解决这些性能问题,需要系统性地进行性能分析与瓶颈诊…

    2025年12月6日 开发工具
    000
  • php查询代码怎么写_php数据库查询语句编写技巧与实例

    在PHP中进行数据库查询,最常用的方式是使用MySQLi或PDO扩展连接MySQL数据库。下面介绍基本的查询代码写法、编写技巧以及实用示例,帮助你高效安全地操作数据库。 1. 使用MySQLi进行查询(面向对象方式) 这是较为推荐的方式,适合大多数中小型项目。 // 创建连接$host = ‘loc…

    2025年12月6日 后端开发
    000
  • VSCode的悬浮提示信息可以自定义吗?

    可以通过JSDoc、docstring和扩展插件自定义VSCode悬浮提示内容,如1. 添加JSDoc或Python docstring增强信息;2. 调整hover延迟与粘性等显示行为;3. 使用支持自定义提示的扩展或开发hover provider实现深度定制,但无法直接修改HTML结构或手动编…

    2025年12月6日 开发工具
    000
  • php数据库如何实现数据缓存 php数据库减少查询压力的方案

    答案:PHP结合Redis等内存缓存系统可显著提升Web应用性能。通过将用户信息、热门数据等写入内存缓存并设置TTL,先查缓存未命中再查数据库,减少数据库压力;配合OPcache提升脚本执行效率,文件缓存适用于小型项目,数据库缓冲池优化和读写分离进一步提升性能,推荐Redis为主并防范缓存穿透与雪崩…

    2025年12月6日 后端开发
    000
  • 重现iPhone X颠覆性时刻!苹果2027年跳过19命名iPhone 20

    10月23日,有消息称,苹果或将再次调整iPhone的发布节奏,考虑跳过“iPhone 19”,并于2027年直接推出“iPhone 20”系列。 此举据传是为了庆祝初代iPhone发布二十周年,同时开启新一轮的设计革新,目标是复刻2017年iPhone X带来的划时代变革。 据悉,苹果或将告别长期…

    2025年12月6日 手机教程
    000

发表回复

登录后才能评论
关注微信