【校园AI Day-AI workshop】卫星遥感图像切割多模型对比

本文基于DeepGlobe地表覆盖数据集,利用PaddleSeg的PP-LiteSeg、DeepLabV3P、ANN三种分割模型,在相同超参数下开展训练对比。数据集经格式转换、7:3划分训练与验证集后,通过准确率、mIoU等指标评估,结果显示DeepLabV3P模型效果最优,可辅助识别农业用地非法侵占。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

【校园ai day-ai workshop】卫星遥感图像切割多模型对比 - 创想鸟

【校园AI Day-AI workshop】卫星遥感图像切割多模型对比

1. 引言

1.1 项目简介

农业是国之根本,但侵占基本农田的案例时有发生,我国土地面积辽阔,对农业用地非法侵占行为的识别需要耗费大量的时间和人力物力。利用深度学习的语义分割,能够帮助政府管理人员识别和统计农业用地地块,大大减少人工工作量。

本文使用PaddleSeg套件中的三种分割模型(PP-LiteSeg, DeepLabV3P, ANN),针对DeepGlobe地表覆盖数据集。配置相同的超参数,对比三种模型训练结果。主要分为引言、环境安装、数据准备、模型训练、模型评估、结果对比以及附录等主要部分。

1.2 数据集介绍

本文使用的是DeepGlobe地表覆盖数据集,其包含具体内容如下所示。本文将train文件夹下的图像按7:3比例划分为训练集和验证集。其次,将标注图像的三通道转换为单通道(通道值从0开始),用0-6进行像素替换。

├── class_dict.csv├── metadata.csv├── test│   ├── 100877_sat.jpg│   ├── 103215_sat.jpg│   ├── ...├── train│   ├── 1008694_mask.png│   ├── 1000694_sat.jpg│   ├── ...├── valid│   ├── 105036_sat.jpg│   ├── 107780_sat.jpg│   ├── ...

       

数据集中某张images原图如下所示:【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟                

数据集中某张images对应的mask图像如下所示:【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟                

2. 环境安装

2.1 克隆PaddleSeg

PaddleSeg是基于飞桨PaddlePaddle开发的端到端图像分割开发套件,涵盖了高精度和轻量级等不同方向的大量高质量分割模型。通过模块化的设计,提供了配置化驱动和API调用两种应用方式,帮助开发者更便捷地完成从训练到部署的全流程图像分割应用。PaddleSeg具体介绍及使用说明请参考:飞桨高性能图像分割开发套件

In [3]

! git clone https://gitee.com/paddlepaddle/PaddleSeg

       

正克隆到 'PaddleSeg'...remote: Enumerating objects: 18055, done.remote: Counting objects: 100% (3018/3018), done.remote: Compressing objects: 100% (1534/1534), done.remote: Total 18055 (delta 1698), reused 2505 (delta 1435), pack-reused 15037接收对象中: 100% (18055/18055), 341.84 MiB | 12.92 MiB/s, 完成.处理 delta 中: 100% (11562/11562), 完成.检查连接... 完成。

       In [4]

# 移动文件夹! mv PaddleSeg /home/aistudio/work

   

2.2 安装依赖库

In [ ]

%cd ~/work/PaddleSeg/!pip install -r requirements.txt%env PYTHONPATH=.:$PYTHONPATH%env CUDA_VISIBLE_DEVICES=0

   

3. 数据准备

3.1 解压数据集

In [6]

# 切换当前工作目录%cd ~

       

/home/aistudio

       In [ ]

# 解压数据集! unzip /home/aistudio/data/data145161/DeepGlobeLandCoverClassificationDataset.zip

   

3.2 数据集格式转换

我们需要将自定义数据集转换成如下格式,进而使用PadleSeg套件进行训练。

DeepGlobe||--images|  |--0.jpg|  |--1.jpg|  |--2.jpg|  |--...||--labels|  |--0.png|  |--1.png|  |--2.png|  |--...||--train.txt||--val.txt||--test.txt

       

images文件夹存放原图(通道数为3),labels文件夹存放标注图像(通道数为1),train.txt、val.txt、test.txt指定训练集、验证集和测试集。本项目按照7:3的比例对images划分训练集与验证集,并分别输出到train.txt与val.txt文件中。

labels文件夹下标注图要求: 标注图像必须为单通道图像,像素值即为对应的类别,像素标注类别需要从0开始递增。 例如0,1,2,3表示有4种类别,标注类别最多为256类。其中可以指定特定的像素值用于表示该值的像素不参与训练和评估(默认为255)。

本项目所用数据集包含7种类别,如下表所示,因此我们需要将labels文件夹下的标注图像转换为单通道,对应像素点由0-6表示。

【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟        

train.txt和val.txt的内容如下所示:

images/0.jpg labels/0.pngimages/1.jpg labels/1.pngimages/2.jpg labels/2.pngimages/3.jpg labels/3.png

       

推荐用户将数据集放置在PaddleSeg下的data文件夹下。

In [7]

%cd ~

       

/home/aistudio

       

3.2.1 查看图片编码类型

通过以下代码可以查看某张图片的shape,dtype等详细信息,从而知道是否满足传入数据要求。

In [ ]

%cd ~import numpy as npimport matplotlib.pyplot as pltimport cv2#jupyter 魔法指令,预加载,显示图片%matplotlib inline#读取图片img = cv2.imread('train/100694_mask.png',-1)#这里输入需要导入图片的位置print(img)#显示图片的数据print(img.shape)#查看图片的长宽及颜色print(img.dtype)

   

3.2.2 格式转化labels标注图像

按照PaddleSeg要求格式对labels图像进行转化 三通道转单通道 RGB标注彩图转换为物体的黑白mask图像代码如下所示

此处标注图像通道转换脚本参考了网上项目中的思路,也可以考虑使用其他转换思路,如使用numpy像素替换。

In [10]

# 读取标签import pandas as pdfrom PIL import Imageimport numpy as npimport cv2classpd = pd.read_csv('class_dict.csv')classpdd = dict() # 存储各标签数量def countlabel(img_path):    label= Image.open(img_path)    label = np.asarray(label)    img= np.zeros((label.shape[0],label.shape[1]),np.uint8)    label.shape    for i in range(len(classpd)):        row = classpd.loc[i,:]        r1,g1,b1 = row.r,row.g,row.b        red,green,blue = label[:,:,0], label[:,:,1], label[:,:,2]        mask = (red==r1) & (green==g1) & (blue==b1)        if(row['name'] not in d.keys()):            d[row['name']]=0        d[row['name']]+=np.sum(mask)

   In [11]

data_all = pd.read_csv('metadata.csv')data_all.head()

       

   image_id  split        sat_image_path              mask_path0    100694  train  train/100694_sat.jpg  train/100694_mask.png1    102122  train  train/102122_sat.jpg  train/102122_mask.png2     10233  train   train/10233_sat.jpg   train/10233_mask.png3    103665  train  train/103665_sat.jpg  train/103665_mask.png4    103730  train  train/103730_sat.jpg  train/103730_mask.png

               In [12]

mask_ = pd.notna(data_all.mask_path)data_notna = data_all[mask_]ddata_mask_path = data_notna.mask_path

   In [14]

from tqdm import trangefor i in trange(len(ddata_mask_path),desc='Progress ',leave=False):    countlabel(ddata_mask_path[i])

       

                                                            

       In [15]

def imageconvlabel(img_path):    label= Image.open(img_path)    label = np.asarray(label)    img= np.zeros((label.shape[0],label.shape[1]),np.uint8)    for i in range(len(classpd)):        row = classpd.loc[i,:]        r1,g1,b1 = row.r,row.g,row.b        red,green,blue = label[:,:,0], label[:,:,1], label[:,:,2]        mask = (red==r1) & (green==g1) & (blue==b1)        img[mask]=i    cv2.imwrite(img_path+'new.png',img)

   In [17]

# 转化成label标注图for i in trange(len(ddata_mask_path),desc='Progress ',leave=False):    imageconvlabel(ddata_mask_path[i])

       

                                                            

       

3.2.3 拆分文件夹

将train文件夹下的所有转换好的以new.png为后缀的label标注图片与image原图片分别输出到名为labels与images两个文件夹内。

In [18]

# 将图片文件移动到images文件夹中import osimport shutildef take_samefile(or_path, tar_path, tar_type):    tar_path = tar_path    if not os.path.exists(tar_path):        os.makedirs(tar_path)    path = or_path    files = os.listdir(path)  # 读取or_path文件列表    for file in files:        file_type = str(file).split('.')[1]  # 读取文件后缀        if file_type == tar_type:            print("take{}from{}".format(file, files))            dir = path + '/' + file  # 存储文件路径            deter = tar_path + '/' + str(file)            shutil.copyfile(dir, deter)take_samefile(r"train", r"images", "jpg")

       

IOPub data rate exceeded.The Jupyter server will temporarily stop sending outputto the client in order to avoid crashing it.To change this limit, set the config variable`--ServerApp.iopub_data_rate_limit`.Current values:ServerApp.iopub_data_rate_limit=1000000.0 (bytes/sec)ServerApp.rate_limit_window=3.0 (secs)

       In [19]

# 将标签文件移动到labels文件夹中import osimport shutildef take_samefile(or_path, tar_path, tar_type):    tar_path = tar_path    if not os.path.exists(tar_path):        os.makedirs(tar_path)    path = or_path    files = os.listdir(path)  # 读取or_path文件列表    for file in files:        file_type = str(file).split('.')[-2]  # 读取文件后缀        if file_type == tar_type:            print("take{}from{}".format(file, files))            dir = path + '/' + file  # 存储文件路径            deter = tar_path + '/' + str(file)            shutil.copyfile(dir, deter)take_samefile(r"train", r"labels", "pngnew")

       

IOPub data rate exceeded.The Jupyter server will temporarily stop sending outputto the client in order to avoid crashing it.To change this limit, set the config variable`--ServerApp.iopub_data_rate_limit`.Current values:ServerApp.iopub_data_rate_limit=1000000.0 (bytes/sec)ServerApp.rate_limit_window=3.0 (secs)

       

3.2.4 重命名labels与images

PaddleSeg要求传入label数据的命名格式从0开始依次递增,例如:0.png,1.png,2.png…

因labels中图片与images中图片相对应,所以将两文件夹内的图片先排序在依次重命名,就可以使得两文件夹重命名后的同名图片也一一对应。例如123.jpg与123.png是相对应image和label。

In [ ]

'''labels图像批量重命名'''# 将labels文件内容排序后重命名import osstart = 0 # 开始的序号image_dir = '/home/aistudio/labels/'  # 源图片路径images_list = os.listdir(image_dir)images_list.sort() # 文件名 按数字排序print(images_list)nums = len(os.listdir(image_dir))print('found %d pictures' % nums)output_dir = '/home/aistudio/labels/'  # 图像重命名后的保存路径for i in images_list:    os.rename(image_dir+i,output_dir+str(start)+'.png') # 前面是旧的路径,后面是新路径    start = start + 1print('finished!')

   In [ ]

'''images图像批量重命名'''# 将images文件内容排序后重命名import osstart = 0 # 开始的序号image_dir = '/home/aistudio/images/'  # 源图片路径images_list = os.listdir(image_dir)images_list.sort() # 文件名 按数字排序print(images_list)nums = len(os.listdir(image_dir))print('found %d pictures' % nums)output_dir = '/home/aistudio/images/'  # 图像重命名后的保存路径for i in images_list:    os.rename(image_dir+i,output_dir+str(start)+'.jpg') # 前面是旧的路径,后面是新路径    start = start + 1print('finished!')

   In [22]

# 可视化相对应的image与labelimport cv2import matplotlib.pyplot as pltimport numpy as npimage = cv2.imread('images/0.jpg')plt.figure(figsize=(8,8))plt.imshow(cv2.cvtColor(image, cv2.COLOR_BGR2RGB))image1 = cv2.imread('labels/0.png')plt.figure(figsize=(8,8))plt.imshow(cv2.cvtColor(image1, cv2.COLOR_BGR2RGB))plt.show()

       

               

               In [23]

# 新建目录! mkdir /home/aistudio/data/DeepGlobe

   In [24]

# 移动需要用的文件夹! mv /home/aistudio/images /home/aistudio/data/DeepGlobe! mv /home/aistudio/labels /home/aistudio/data/DeepGlobe

   In [25]

%cd ~

       

/home/aistudio

       

3.2.5 生成train.txt与val.txt文件

按照7:3划分训练集与测试集并按照格式要求输出到train.txt与val.txt文件中

In [26]

# 生成yml所需的数据列表import osdata_path = '/home/aistudio/data/DeepGlobe/images'  # 这里数据的img和lab的文件名一张,可以简单写imgs_name = os.listdir(data_path)  # 获取文件夹下所有文件的名字with open(data_path.replace('images', 'train.txt'), 'w') as tf:    with open(data_path.replace('images', 'val.txt'), 'w') as vf:        for idx, img_name in enumerate(imgs_name):            if img_name != ".ipynb_checkpoints":                img_path = os.path.join('images', img_name)                lab_path = img_path.replace('images', 'labels').replace('jpg', 'png')  # 替换image为label的路径                # print(idx)                if idx % 10 == 1 or idx % 10 == 2 or idx % 10 == 3:  # 按7:3组织训练集和验证集                    vf.write(img_path + ' ' + lab_path + 'n')                else:                    tf.write(img_path + ' ' + lab_path + 'n')           print('ok')

       

ok

       In [27]

! mkdir -p /home/aistudio/work/PaddleSeg/data/DeepGlobe! mv data/DeepGlobe/ work/PaddleSeg/data/

   

4. 模型训练

下面将分别进行配置三个分割模型(PP-LiteSeg, DeepLabV3P, ANN),并开始训练。

更详细的模型库请参考:PaddleSeg模型库总览

模型训练与评估的详细指令可参考:PaddleSeg全流程跑通

In [2]

# 进入PaddleSeg的目录%cd /home/aistudio/work/PaddleSeg/

       

/home/aistudio/work/PaddleSeg

       

4.1 PP-LiteSeg模型

本模型选用的基本配置文件地址如下所示,并按照以下参数进行修改,完整修改后的配置文件请见附录代码。

Backbone: STDC2

/home/aistudio/work/PaddleSeg/configs/quick_start/pp_liteseg_optic_disc_512x512_1k.yml

4.1.1 开始PP-LiteSeg模型训练

训练指令中设定每100轮训练保存一次模型,并开启边训练边评估指令。配置文件的参数设定如下所示,为统一模型参数从而比较三种模型的效果,以下两个模型配置文件也将使用与此相同的参数配置。

batch_size: 8iters: 3500选用的数据增强操作如下所示:

  transforms: #数据预处理/增强的方式    - type: ResizeStepScaling #将原始图像和标注图像随机缩放为0.5~2.0倍      min_scale_factor: 0.5      max_scale_factor: 2.0      scale_step_size: 0.25    - type: RandomPaddingCrop #从原始图像和标注图像中随机裁剪512x512大小      crop_size: [512, 512]    - type: RandomHorizontalFlip  #采用水平反转的方式进行数据增强    - type: RandomDistort #亮度、对比度、饱和度随机变动      brightness_range: 0.5      contrast_range: 0.5      saturation_range: 0.5    - type: Normalize #将图像归一化

       optimizer: sgdlr_scheduler: PolynomialDecayloss: CrossEntropyLossIn [ ]

# 进入PaddleSeg的目录%cd /home/aistudio/work/PaddleSeg/# 设置1张可用的卡! export CUDA_VISIBLE_DEVICES=0  # 训练 选择配置开始训练。可以通过 -o 选项覆盖配置文件中的参数! python train.py        --config configs/quick_start/pp_liteseg_optic_disc_512x512_1k.yml        --do_eval        --use_vdl        --save_interval 100        --save_dir out/PPLiteSeg_yml_output # do_eval:是否在保存模型时启动评估, 启动时将会根据mIoU保存最佳模型至best_model# log_iters:打印日志的间隔步数,默认为10# save_interval:模型保存的间隔步数# save_dir:模型和visualdl日志文件的保存根路径

   

4.1.2 PP-LiteSeg模型训练过程可视化

为了更直观我们的网络训练过程,对网络进行分析从而更快速的得到更好的网络,飞桨提供了可视化分析工具:VisualDL,训练中开启use_vdl指令,在模型保存文件夹下会自动保存.log文件,在侧边栏中的数据模型可视化选项中选中该logdir所在文件夹,打开即可看到可视化训练过程。更多可视化细节可参考:训练过程可视化

当打开use_vdl开关后,PaddleSeg会将训练过程中的数据写入VisualDL文件 3500轮训练过程中,学习率(learn rate)、训练损失(loss)、平均交并比(Mean Intersection over Union,简称mIoU)以及准确率(acc)的具体变化如下图所示。

【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟        

4.2 Deeplabv3P模型

本模型选用的基本配置文件地址如下所示,并按照以下参数进行修改,完整修改后的配置文件请见附录代码。

Backbone: ResNet50_vd

/home/aistudio/work/PaddleSeg/configs/quick_start/deeplabv3p_resnet50_os8_optic_disc_512x512_1k_teacher.yml

4.2.1 开始Deeplabv3P模型训练

训练指令中设定每100轮训练保存一次模型,并开启边训练边评估指令。参数设定与上一个模型相同,详情如下所示:

batch_size: 8iters: 3500选用的数据增强操作如下所示:

  transforms: #数据预处理/增强的方式    - type: ResizeStepScaling #将原始图像和标注图像随机缩放为0.5~2.0倍      min_scale_factor: 0.5      max_scale_factor: 2.0      scale_step_size: 0.25    - type: RandomPaddingCrop #从原始图像和标注图像中随机裁剪512x512大小      crop_size: [512, 512]    - type: RandomHorizontalFlip  #采用水平反转的方式进行数据增强    - type: RandomDistort #亮度、对比度、饱和度随机变动      brightness_range: 0.5      contrast_range: 0.5      saturation_range: 0.5    - type: Normalize #将图像归一化

       optimizer: sgdlr_scheduler: PolynomialDecayloss: CrossEntropyLossIn [ ]

# 进入PaddleSeg的目录%cd /home/aistudio/work/PaddleSeg/# 设置1张可用的卡! export CUDA_VISIBLE_DEVICES=0  # 训练 选择配置开始训练。可以通过 -o 选项覆盖配置文件中的参数! python train.py        --config configs/quick_start/deeplabv3p_resnet50_os8_optic_disc_512x512_1k_teacher.yml        --do_eval        --use_vdl        --save_interval 100        --save_dir output/deeplabv3p_yml_output 

   

4.2.2 Deeplabv3P模型训练过程可视化

当打开use_vdl开关后,PaddleSeg会将训练过程中的数据写入VisualDL文件 3500轮训练过程中,学习率(learn rate)、训练损失(loss)、平均交并比(Mean Intersection over Union,简称mIoU)以及准确率(acc)的具体变化如下图所示。

【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟        

4.3 ANN模型

训练指令中设定每100轮训练保存一次模型,并开启边训练边评估指令。本模型选用的基本配置文件地址如下所示,并按照以下参数进行修改,完整修改后的配置文件请见附录代码。

Backbone: ResNet101_vd

/home/aistudio/work/PaddleSeg/configs/ann/ann_resnet101_os8_voc12aug_512x512_40k.yml

4.3.1 开始ANN模型训练

参数设定与以上两个模型相同,详情如下所示:

batch_size: 8iters: 3500选用的数据增强操作如下所示:

  transforms: #数据预处理/增强的方式    - type: ResizeStepScaling #将原始图像和标注图像随机缩放为0.5~2.0倍      min_scale_factor: 0.5      max_scale_factor: 2.0      scale_step_size: 0.25    - type: RandomPaddingCrop #从原始图像和标注图像中随机裁剪512x512大小      crop_size: [512, 512]    - type: RandomHorizontalFlip  #采用水平反转的方式进行数据增强    - type: RandomDistort #亮度、对比度、饱和度随机变动      brightness_range: 0.5      contrast_range: 0.5      saturation_range: 0.5    - type: Normalize #将图像归一化

       optimizer: sgdlr_scheduler: PolynomialDecayloss: CrossEntropyLossIn [ ]

# 进入PaddleSeg的目录%cd /home/aistudio/work/PaddleSeg/# 设置1张可用的卡! export CUDA_VISIBLE_DEVICES=0  # 训练 选择配置开始训练。可以通过 -o 选项覆盖配置文件中的参数! python train.py        --config configs/ann/ann_resnet101_os8_voc12aug_512x512_40k.yml        --do_eval        --use_vdl        --save_interval 100        --save_dir output/ann_yml_output 

   

4.3.2 ANN模型训练过程可视化

当打开use_vdl开关后,PaddleSeg会将训练过程中的数据写入VisualDL文件 3500轮训练过程中,学习率(learn rate)、训练损失(loss)、平均交并比(Mean Intersection over Union,简称mIoU)以及准确率(acc)的具体变化如下图所示。

【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟        

5. 模型评估

在图像分割领域中,评估模型质量主要是通过三个指标进行判断,准确率(acc)、平均交并比(Mean Intersection over Union,简称mIoU)、Kappa系数。

准确率:指类别预测正确的像素占总像素的比例,准确率越高模型质量越好。平均交并比:对每个类别数据集单独进行推理计算,计算出的预测区域和实际区域交集除以预测区域和实际区域的并集,然后将所有类别得到的结果取平均。Kappa系数:一个用于一致性检验的指标,可以用于衡量分类的效果。kappa系数的计算是基于混淆矩阵的,取值为-1到1之间,通常大于0。其公式如下所示,P0P_0P0为分类器的准确率,PeP_eP**e为随机分类器的准确率。Kappa系数越高模型质量越好。

5.1 评估PP-LiteSeg模型

使用如下命令评估训练保存的iter=3500时的模型

PP-LiteSeg模型评估结果如下所示:

mIoU: 0.5338Acc: 0.8206Kappa: 0.7199Dice: 0.6396In [ ]

! python val.py        --config configs/quick_start/pp_liteseg_optic_disc_512x512_1k.yml        --model_path output/PPLiteSeg_yml_output/iter_3500/model.pdparams

   

5.2 评估Deeplabv3p模型

使用如下命令评估训练保存的iter=3500时的模型

Deeplabv3p模型评估结果如下所示:

mIoU: 0.5613Acc: 0.8246Kappa: 0.7470Dice: 0.6698In [ ]

! python val.py        --config configs/quick_start/deeplabv3p_resnet50_os8_optic_disc_512x512_1k_teacher.yml        --model_path output/deeplabv3p_yml_output/iter_3500/model.pdparams

   

5.3 评估ANN模型

使用如下命令评估训练保存的iter=3500时的模型

ANN模型评估结果如下所示:

mIoU: 0.2650Acc: 0.6530Kappa: 0.4466Dice: 0.3500In [ ]

! python val.py        --config configs/ann/ann_resnet101_os8_voc12aug_512x512_40k.yml        --model_path output/ann_yml_output/iter_3500/model.pdparams

   

6. 结果对比

三种模型的效果(准确率与mIoU)详细对比如下所示:

图中记录了0-3500iter的完整训练过程,其中蓝色的线为ANN模型(Backbone: ResNet101_vd)训练效果,绿色的线为PP-LitSeg模型(Backbone: STDC2)训练效果,紫色的线为DeepLabv3p模型(Backbone: ResNet50_vd)的训练效果。

通过可视化训练结果可以看出,三种模型中,DeepLabv3p模型在DeepGlobe地表覆盖数据集中表现的效果更好。

【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟【校园AI Day-AI workshop】卫星遥感图像切割多模型对比 - 创想鸟        

7 附录配置文件

本项目中三个模型用到的完整配置文件代码如下所示:

# work/PaddleSeg/configs/quick_start/pp_liteseg_optic_disc_512x512_1k.ymlbatch_size: 8  #设定batch_size的值即为迭代一次送入网络的图片数量,一般显卡显存越大,batch_size的值可以越大iters: 3500    #模型迭代的次数train_dataset:  #训练数据设置  type: Dataset #数据集名字  dataset_root: data/DeepGlobe #数据集路径  train_path: data/DeepGlobe/train.txt  #数据集中用于训练的标识文件  num_classes: 7  #指定目标的类别个数(背景也算为一类)  mode: train #表示用于训练  transforms: #数据预处理/增强的方式    - type: ResizeStepScaling #将原始图像和标注图像随机缩放为0.5~2.0倍      min_scale_factor: 0.5      max_scale_factor: 2.0      scale_step_size: 0.25    - type: RandomPaddingCrop #从原始图像和标注图像中随机裁剪512x512大小      crop_size: [512, 512]    - type: RandomHorizontalFlip  #采用水平反转的方式进行数据增强    - type: RandomDistort #亮度、对比度、饱和度随机变动      brightness_range: 0.5      contrast_range: 0.5      saturation_range: 0.5    - type: Normalize #将图像归一化val_dataset:  #验证数据设置  type: Dataset #数据集名字  dataset_root: data/DeepGlobe #数据集路径  val_path: data/DeepGlobe/val.txt  #数据集中用于验证的标识文件  num_classes: 7  #指定目标的类别个数(背景也算为一类)  mode: val #表示用于验证  transforms: #数据预处理/增强的方式    - type: Normalize #图像进行归一化optimizer: #设定优化器的类型  type: sgd #采用SGD(Stochastic Gradient Descent)随机梯度下降方法为优化器  momentum: 0.9 #动量  weight_decay: 4.0e-5 #权值衰减,使用的目的是防止过拟合lr_scheduler: # 学习率的相关设置  type: PolynomialDecay # 一种学习率类型。共支持12种策略  learning_rate: 0.01  power: 0.9  end_lr: 0loss: #设定损失函数的类型  types:    - type: CrossEntropyLoss  #损失函数类型  coef: [1, 1, 1] # PP-LiteSeg有一个主loss和两个辅助loss,coef表示权重: total_loss = coef_1 * loss_1 + .... + coef_n * loss_nmodel:  #模型说明  type: PPLiteSeg  #设定模型类别  backbone:  # 设定模型的backbone,包括名字和预训练权重    type: STDC2    pretrained: https://bj.bcebos.com/paddleseg/dygraph/PP_STDCNet2.tar.gz

   

# work/PaddleSeg/configs/quick_start/deeplabv3p_resnet50_os8_optic_disc_512x512_1k_teacher.ymlbatch_size: 8iters: 3500train_dataset:  #训练数据设置  type: Dataset #数据集名字  dataset_root: data/DeepGlobe #数据集路径  train_path: data/DeepGlobe/train.txt  #数据集中用于训练的标识文件  num_classes: 7  #指定目标的类别个数(背景也算为一类)  mode: train #表示用于训练  transforms: #数据预处理/增强的方式    - type: ResizeStepScaling #将原始图像和标注图像随机缩放为0.5~2.0倍      min_scale_factor: 0.5      max_scale_factor: 2.0      scale_step_size: 0.25    - type: RandomPaddingCrop #从原始图像和标注图像中随机裁剪512x512大小      crop_size: [512, 512]    - type: RandomHorizontalFlip  #采用水平反转的方式进行数据增强    - type: RandomDistort #亮度、对比度、饱和度随机变动      brightness_range: 0.5      contrast_range: 0.5      saturation_range: 0.5    - type: Normalize #将图像归一化val_dataset:  #验证数据设置  type: Dataset #数据集名字  dataset_root: data/DeepGlobe #数据集路径  val_path: data/DeepGlobe/val.txt  #数据集中用于验证的标识文件  num_classes: 7  #指定目标的类别个数(背景也算为一类)  mode: val #表示用于验证  transforms: #数据预处理/增强的方式    - type: Normalize #图像进行归一化optimizer:  type: sgd  momentum: 0.9  weight_decay: 4.0e-5lr_scheduler:  type: PolynomialDecay  learning_rate: 0.01  end_lr: 0  power: 0.9loss:  types:    - type: CrossEntropyLoss  coef: [1]model:  type: DeepLabV3P  backbone:    type: ResNet50_vd    output_stride: 8    multi_grid: [1, 2, 4]    pretrained: https://bj.bcebos.com/paddleseg/dygraph/resnet50_vd_ssld_v2.tar.gz  num_classes: 7  backbone_indices: [0, 3]  aspp_ratios: [1, 12, 24, 36]  aspp_out_channels: 256  align_corners: False  pretrained: Null

   

# work/PaddleSeg/configs/ann/ann_resnet101_os8_voc12aug_512x512_40k.yml_base_: 'ann_resnet50_os8_voc12aug_512x512_40k.yml'model:  backbone:    type: ResNet101_vd    pretrained: https://bj.bcebos.com/paddleseg/dygraph/resnet101_vd_ssld.tar.gz

   

# work/PaddleSeg/configs/ann/ann_resnet50_os8_voc12aug_512x512_40k.yml_base_: '../_base_/pascal_voc12aug.yml'loss:  types:    - type: CrossEntropyLoss  coef: [1, 0.4]model:  type: ANN  backbone:    type: ResNet50_vd    output_stride: 8    pretrained: https://bj.bcebos.com/paddleseg/dygraph/resnet50_vd_ssld_v2.tar.gz  backbone_indices: [2, 3]  key_value_channels: 256  inter_channels: 512  psp_size: [1, 3, 6, 8]  enable_auxiliary_loss: True  align_corners: False  pretrained: null

   

# work/PaddleSeg/configs/_base_/pascal_voc12aug.yml_base_: './pascal_voc12.yml'train_dataset:  mode: train

   

# work/PaddleSeg/configs/_base_/pascal_voc12.ymlbatch_size: 8iters: 3500train_dataset:  #训练数据设置  type: Dataset #数据集名字  dataset_root: data/DeepGlobe #数据集路径  train_path: data/DeepGlobe/train.txt  #数据集中用于训练的标识文件  num_classes: 7  #指定目标的类别个数(背景也算为一类)  mode: train #表示用于训练  transforms: #数据预处理/增强的方式    - type: ResizeStepScaling #将原始图像和标注图像随机缩放为0.5~2.0倍      min_scale_factor: 0.5      max_scale_factor: 2.0      scale_step_size: 0.25    - type: RandomPaddingCrop #从原始图像和标注图像中随机裁剪512x512大小      crop_size: [512, 512]    - type: RandomHorizontalFlip  #采用水平反转的方式进行数据增强    - type: RandomDistort #亮度、对比度、饱和度随机变动      brightness_range: 0.5      contrast_range: 0.5      saturation_range: 0.5    - type: Normalize #将图像归一化val_dataset:  #验证数据设置  type: Dataset #数据集名字  dataset_root: data/DeepGlobe #数据集路径  val_path: data/DeepGlobe/val.txt  #数据集中用于验证的标识文件  num_classes: 7  #指定目标的类别个数(背景也算为一类)  mode: val #表示用于验证  transforms: #数据预处理/增强的方式    - type: Normalize #图像进行归一化optimizer:  type: sgd  momentum: 0.9  weight_decay: 4.0e-5lr_scheduler:  type: PolynomialDecay  learning_rate: 0.01  end_lr: 0  power: 0.9loss:  types:    - type: CrossEntropyLoss  coef: [1]

   

以上就是【校园AI Day-AI workshop】卫星遥感图像切割多模型对比的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/46582.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月7日 19:07:42
下一篇 2025年11月7日 19:12:06

相关推荐

  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000
  • 使用CSS mask属性指定图片URL时,为什么浏览器无法加载图片?

    css mask属性未能加载图片的解决方法 使用css mask属性指定图片url时,如示例中所示: mask: url(“https://api.iconify.design/mdi:apple-icloud.svg”) center / contain no-repeat; 但是,在网络面板中却…

    2025年12月24日
    000
  • 如何用CSS Paint API为网页元素添加时尚的斑马线边框?

    为元素添加时尚的斑马线边框 在网页设计中,有时我们需要添加时尚的边框来提升元素的视觉效果。其中,斑马线边框是一种既醒目又别致的设计元素。 实现斜向斑马线边框 要实现斜向斑马线间隔圆环,我们可以使用css paint api。该api提供了强大的功能,可以让我们在元素上绘制复杂的图形。 立即学习“前端…

    2025年12月24日
    000
  • 图片如何不撑高父容器?

    如何让图片不撑高父容器? 当父容器包含不同高度的子元素时,父容器的高度通常会被最高元素撑开。如果你希望父容器的高度由文本内容撑开,避免图片对其产生影响,可以通过以下 css 解决方法: 绝对定位元素: .child-image { position: absolute; top: 0; left: …

    2025年12月24日
    000
  • 使用 Mask 导入本地图片时,如何解决跨域问题?

    跨域疑难:如何解决 mask 引入本地图片产生的跨域问题? 在使用 mask 导入本地图片时,你可能会遇到令人沮丧的跨域错误。为什么会出现跨域问题呢?让我们深入了解一下: mask 框架假设你以 http(s) 协议加载你的 html 文件,而当使用 file:// 协议打开本地文件时,就会产生跨域…

    2025年12月24日
    200
  • CSS 帮助

    我正在尝试将文本附加到棕色框的左侧。我不能。我不知道代码有什么问题。请帮助我。 css .hero { position: relative; bottom: 80px; display: flex; justify-content: left; align-items: start; color:…

    2025年12月24日 好文分享
    200
  • HTML、CSS 和 JavaScript 中的简单侧边栏菜单

    构建一个简单的侧边栏菜单是一个很好的主意,它可以为您的网站添加有价值的功能和令人惊叹的外观。 侧边栏菜单对于客户找到不同项目的方式很有用,而不会让他们觉得自己有太多选择,从而创造了简单性和秩序。 今天,我将分享一个简单的 HTML、CSS 和 JavaScript 源代码来创建一个简单的侧边栏菜单。…

    2025年12月24日
    200

发表回复

登录后才能评论
关注微信