飞桨常规赛:PALM眼底彩照中黄斑中央凹定位-11月第1名方案

本文分享飞桨常规赛PALM眼底彩照黄斑中央凹定位11月第1名方案。介绍赛事与数据后,详述自定义数据集读取、新数据增强方法,给出具体实现代码,包括数据处理、模型组网、训练评估等,还提及结果投票集成,最后总结改善方向与飞桨使用建议。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

飞桨常规赛:palm眼底彩照中黄斑中央凹定位-11月第1名方案 - 创想鸟

飞桨常规赛:PALM眼底彩照中黄斑中央凹定位-11月第1名方案

(1)比赛介绍

赛题介绍

榜首个人主页,戳此处查看

PALM黄斑定位常规赛的重点是研究和发展与患者眼底照片黄斑结构定位相关的算法。该常规赛的目标是评估和比较在一个常见的视网膜眼底图像数据集上定位黄斑的自动算法。具体目的是预测黄斑中央凹在图像中的坐标值。

飞桨常规赛:PALM眼底彩照中黄斑中央凹定位-11月第1名方案 - 创想鸟        

中央凹是视网膜中辨色力、分辨力最敏锐的区域。以人为例,在视盘颞侧约3.5mm处,有一黄色小区,称黄斑,其中央的凹陷,就是中央凹。中央凹的准确定位可辅助医生完成糖尿病视网膜、黄斑变性等病变的诊断。

赛程赛制

(1)飞桨常规赛面向全社会公开报名,直至赛题下线;

(2)飞桨常规赛不设初赛、复赛,以当月每位参赛选手提交的最优成绩排名。每月竞赛周期为本月 1 日至本月最后 1 日;

(3)比赛期间选手每天最多可提交 5 次作品(预测结果+原始代码),系统自动选取最高成绩作为榜单记录;

(4)每个月 1-5 日公布上一个月总榜。当月排名前10 且通过代码复查的选手可获得由百度飞桨颁发的荣誉证书。对于初次上榜的参赛选手,还可额外获得1份特别礼包(1个飞桨周边奖品+ 100小时GPU算力卡)。工作人员将以邮件形式通知上一月排名前10的选手提交材料供代码复查,请各位参赛选手留意邮箱通知。特别提醒: 已获得过特别礼包的参赛选手,如果基于本赛题撰写新的studio项目并被评为精选,才可再次获得1份特别礼包;

(5) score超过0.04的第一位选手可额外获得大奖:小度在家;

(6) 鼓励选手报名多个主题的飞桨常规赛,以赛促学,全方面提升开发者的深度学习能力。

(2)数据介绍

PALM病理性近视预测常规赛由中山大学中山眼科中心提供800张带黄斑中央凹坐标标注的眼底彩照供选手训练模型,另提供400张带标注数据供平台进行模型测试。

数据说明

本次常规赛提供的金标准由中山大学中山眼科中心的7名眼科医生手工进行标注,之后由另一位高级专家将它们融合为最终的标注结果。本比赛提供数据集对应的黄斑中央凹坐标信息存储在xlsx文件中,名为“Fovea_Location_train”,第一列对应眼底图像的文件名(包括扩展名“.jpg”),第二列包含x坐标,第三列包含y坐标。 图

训练数据集

文件名称:Train Train文件夹里有一个文件夹fundus_images和一个xlsx文件。

fundus_images文件夹内包含800张眼底彩照,分辨率为1444×1444,或2124×2056。命名形如H0001.jpg、P0001.jpg、N0001.jpg和V0001.jpg。 xlsx文件中包含800张眼底彩照对应的x、y坐标信息。

测试数据集

文件名称:PALM-Testing400-Images 文件夹里包含400张眼底彩照,命名形如T0001.jpg。

(3)个人思路+个人方案亮点

自定义数据集读取图片和标签

class dataset(paddle.io.Dataset):    def __init__(self,img_list,label_listx,label_listy,transform=None,transform2=None,mode='train'):        self.image=img_list        self.labelx=label_listx        self.labely=label_listy        self.mode=mode        self.transform=transform        self.transform2=transform2    def load_img(self, image_path):        img=cv2.imread(image_path,1)        img=cv2.cvtColor(img,cv2.COLOR_BGR2RGB)        h,w,c=img.shape        return img,h,w    def __getitem__(self,index):        img,h,w = self.load_img(self.image[index])        labelx = self.labelx[index]        labely = self.labely[index]        img_size=img.shape        if self.transform:            if self.mode=='train':                img, label = self.transform([img, [labelx,labely]])            else:                img, label = self.transform2([img, [labelx,labely]])                        label=np.array(label,dtype='float32')        img=np.array(img,dtype='float32')/255.0        return img,label    def __len__(self):        return len(self.image)

       

使用新的数据增强方法对数据进行增广

class py1(object):    # 将输入图像调整为指定大小    def __init__(self, output_size):        assert isinstance(output_size, (int, tuple))        self.output_size = output_size    def __call__(self, data):        image = data[0]    # 获取图片        key_pts = data[1]  # 获取标签        image_copy = np.copy(image)              key_pts_copy = np.copy(key_pts)        h, w = image_copy.shape[:2]        if key_pts_copy[0]<self.output_size:            left=np.random.random()*key_pts_copy[0]        elif w-key_pts_copy[0]<self.output_size:            left=w-(w-key_pts_copy[0])*np.random.random()-self.output_size        else:            left=key_pts_copy[0]-self.output_size*np.random.random()                                            if key_pts_copy[1]<self.output_size:            top=np.random.random()*key_pts_copy[1]        elif h-key_pts_copy[1]<self.output_size:            top=w-(h-key_pts_copy[1])*np.random.random()-self.output_size        else:            top=key_pts_copy[1]-self.output_size*np.random.random()         left=int(left)        top=int(top)        x=(key_pts_copy[0]-left)/self.output_size        y=(key_pts_copy[1]-top)/self.output_size        img=image_copy[top:top+self.output_size,left:left+self.output_size]        return img, [x,y]class py2(object):    # 将输入图像调整为指定大小    def __init__(self, output_size):        assert isinstance(output_size, (int, tuple))        self.output_size = output_size    def __call__(self, data):        image = data[0]    # 获取图片        key_pts = data[1]  # 获取标签        image_copy = np.copy(image)              key_pts_copy = np.copy(key_pts)        h, w = image_copy.shape[:2]        if key_pts_copy[0]<self.output_size/2:            left=0        elif w-key_pts_copy[0]<self.output_size/2:            left=w-self.output_size        else:            left=key_pts_copy[0]-self.output_size/2                                     if key_pts_copy[1]<self.output_size/2:            top=0        elif h-key_pts_copy[1]<self.output_size/2:            top=w-self.output_size        else:            top=key_pts_copy[1]-self.output_size/2        left=int(left)        top=int(top)        x=(key_pts_copy[0]-left)/self.output_size        y=(key_pts_copy[1]-top)/self.output_size        img=image_copy[top:top+self.output_size,left:left+self.output_size]        return img, [x,y]class GrayNormalize(object):    # 将图片变为灰度图,并将其值放缩到[0, 1]    # 将 label 放缩到 [-1, 1] 之间    def __call__(self, data):        image = data[0]   # 获取图片        key_pts = data[1] # 获取标签                image_copy = np.copy(image)        key_pts_copy = np.copy(key_pts)        # 灰度化图片        gray_scale = paddle.vision.transforms.Grayscale(num_output_channels=3)        image_copy = gray_scale(image_copy)                ## 将图片值放缩到 [0, 1]        #image_copy = (image_copy-127.5) /127.5                # 将坐标点放缩到 [-1, 1]        #mean = data_mean # 获取标签均值        #std = data_std   # 获取标签标准差        #key_pts_copy = (key_pts_copy - mean)/std        return image_copy, key_pts_copyclass ToCHW(object):    # 将图像的格式由HWC改为CHW    def __call__(self, data):        image = data[0]        key_pts = data[1]        transpose = T.Transpose((2, 0, 1)) # 改为CHW        image = transpose(image)                return image, key_pts

   

(4)具体方案分享

代码参考:『深度学习7日打卡营』人脸关键点检测

解压数据集

In [1]

!unzip -oq /home/aistudio/data/data116960/常规赛:PALM眼底彩照中黄斑中央凹定位.zip!mv │г╣ц╚№г║PALM╤█╡╫▓╩╒╒╓╨╗╞░▀╓╨╤ы░╝╢и╬╗ 常规赛:PALM眼底彩照中黄斑中央凹定位 #不知道为什么会出现乱码,可用此代码恢复中文!rm -rf __MACOSX

   

查看数据标签

In [1]

import blackhole.dataframe as pddf=pd.read_excel('常规赛:PALM眼底彩照中黄斑中央凹定位/Train/Fovea_Location_train.xlsx')df.head()

       


               

     imgName  Fovea_X  Fovea_Y0  H0001.jpg   743.96   790.541  H0002.jpg  1394.82   725.542  H0003.jpg  1361.74   870.723  H0004.jpg   703.15   742.444  H0005.jpg  1070.95  1037.54

               

数据增强

In [2]

import paddle.vision.transforms.functional as Fclass py1(object):    # 将输入图像调整为指定大小    def __init__(self, output_size):        assert isinstance(output_size, (int, tuple))        self.output_size = output_size    def __call__(self, data):        image = data[0]    # 获取图片        key_pts = data[1]  # 获取标签        image_copy = np.copy(image)              key_pts_copy = np.copy(key_pts)        h, w = image_copy.shape[:2]        if key_pts_copy[0]<self.output_size:            left=np.random.random()*key_pts_copy[0]        elif w-key_pts_copy[0]<self.output_size:            left=w-(w-key_pts_copy[0])*np.random.random()-self.output_size        else:            left=key_pts_copy[0]-self.output_size*np.random.random()                                            if key_pts_copy[1]<self.output_size:            top=np.random.random()*key_pts_copy[1]        elif h-key_pts_copy[1]<self.output_size:            top=w-(h-key_pts_copy[1])*np.random.random()-self.output_size        else:            top=key_pts_copy[1]-self.output_size*np.random.random()         left=int(left)        top=int(top)        x=(key_pts_copy[0]-left)/self.output_size        y=(key_pts_copy[1]-top)/self.output_size        img=image_copy[top:top+self.output_size,left:left+self.output_size]        return img, [x,y]class py2(object):    # 将输入图像调整为指定大小    def __init__(self, output_size):        assert isinstance(output_size, (int, tuple))        self.output_size = output_size    def __call__(self, data):        image = data[0]    # 获取图片        key_pts = data[1]  # 获取标签        image_copy = np.copy(image)              key_pts_copy = np.copy(key_pts)        h, w = image_copy.shape[:2]        if key_pts_copy[0]<self.output_size/2:            left=0        elif w-key_pts_copy[0]<self.output_size/2:            left=w-self.output_size        else:            left=key_pts_copy[0]-self.output_size/2                                     if key_pts_copy[1]<self.output_size/2:            top=0        elif h-key_pts_copy[1]<self.output_size/2:            top=w-self.output_size        else:            top=key_pts_copy[1]-self.output_size/2        left=int(left)        top=int(top)        x=(key_pts_copy[0]-left)/self.output_size        y=(key_pts_copy[1]-top)/self.output_size        img=image_copy[top:top+self.output_size,left:left+self.output_size]        return img, [x,y]class GrayNormalize(object):    # 将图片变为灰度图,并将其值放缩到[0, 1]    # 将 label 放缩到 [-1, 1] 之间    def __call__(self, data):        image = data[0]   # 获取图片        key_pts = data[1] # 获取标签                image_copy = np.copy(image)        key_pts_copy = np.copy(key_pts)        # 灰度化图片        gray_scale = paddle.vision.transforms.Grayscale(num_output_channels=3)        image_copy = gray_scale(image_copy)                ## 将图片值放缩到 [0, 1]        #image_copy = (image_copy-127.5) /127.5                # 将坐标点放缩到 [-1, 1]        #mean = data_mean # 获取标签均值        #std = data_std   # 获取标签标准差        #key_pts_copy = (key_pts_copy - mean)/std        return image_copy, key_pts_copyclass ToCHW(object):    # 将图像的格式由HWC改为CHW    def __call__(self, data):        image = data[0]        key_pts = data[1]        transpose = T.Transpose((2, 0, 1)) # 改为CHW        image = transpose(image)                return image, key_pts

   In [3]

import paddle.vision.transforms as Tdata_transform = T.Compose([                        py1(224),                                                GrayNormalize(),                        ToCHW(),                         ])data_transform2 = T.Compose([                        py2(224),                        GrayNormalize(),                        ToCHW(),                        ])

   

自定义数据集

In [4]

path='常规赛:PALM眼底彩照中黄斑中央凹定位/Train/fundus_image/'df=df.sample(frac=1)image_list=[]label_listx=[]label_listy=[]for i in range(len(df)):        image_list.append(path+df['imgName'][i])        label_listx.append(df['Fovea_X'][i])        label_listy.append(df['Fovea_Y'][i])

   In [5]

import ostest_path='常规赛:PALM眼底彩照中黄斑中央凹定位/PALM-Testing400-Images'test_list=[]test_labelx=[]test_labely=[]#list=pd.read_csv('result54.70313.csv')list=pd.read_csv('????.csv')   #????.csv为以前提交的结果文件,选一个成绩好的。#list = os.listdir(test_path)  # 列出文件夹下所有的目录与文件for i in range(0, len(list)):    path = os.path.join(test_path, list['FileName'][i])    test_list.append(path)    test_labelx.append(list['Fovea_X'][i])    test_labely.append(list['Fovea_Y'][i])

   In [6]

import paddleimport cv2import numpy as npclass dataset(paddle.io.Dataset):    def __init__(self,img_list,label_listx,label_listy,transform=None,transform2=None,mode='train'):        self.image=img_list        self.labelx=label_listx        self.labely=label_listy        self.mode=mode        self.transform=transform        self.transform2=transform2    def load_img(self, image_path):        img=cv2.imread(image_path,1)        img=cv2.cvtColor(img,cv2.COLOR_BGR2RGB)        h,w,c=img.shape        return img,h,w    def __getitem__(self,index):        img,h,w = self.load_img(self.image[index])        labelx = self.labelx[index]        labely = self.labely[index]        img_size=img.shape        if self.transform:            if self.mode=='train':                img, label = self.transform([img, [labelx,labely]])            else:                img, label = self.transform2([img, [labelx,labely]])                        label=np.array(label,dtype='float32')        img=np.array(img,dtype='float32')/255.0        return img,label    def __len__(self):        return len(self.image)

   

训练集、验证集、测试集

In [7]

radio=0.8train_list=image_list[:int(len(image_list)*radio)]train_labelx=label_listx[:int(len(label_listx)*radio)]train_labely=label_listy[:int(len(label_listy)*radio)]val_list=image_list[int(len(image_list)*radio):]val_labelx=label_listx[int(len(label_listx)*radio):]val_labely=label_listy[int(len(label_listy)*radio):]train_ds=dataset(train_list,train_labelx,train_labely,data_transform,data_transform2,'train')val_ds=dataset(val_list,val_labelx,val_labely,data_transform,data_transform2,'valid')test_ds=dataset(test_list,test_labelx,test_labely,data_transform,data_transform2,'test')

   

查看图片

In [14]

import matplotlib.pyplot as pltfor i,data in enumerate(train_ds):        img,label=data    img=img.transpose([1,2,0])    print(img.shape)    plt.title(label*224)    plt.imshow(img)    plt.show()    if i==0:        break

       

(224, 224, 3)

       

               

模型组网

以下两个网络结构任选一

In [15]

class MyNet1(paddle.nn.Layer):    def __init__(self,num_classes=2):        super(MyNet1,self).__init__()        self.net=paddle.vision.resnet152(pretrained=True)        self.fc1=paddle.nn.Linear(1000,512)        self.relu=paddle.nn.ReLU()        self.fc2=paddle.nn.Linear(512,num_classes)    def forward(self,inputs):        out=self.net(inputs)        out=self.fc1(out)        out=self.relu(out)        out=self.fc2(out)        return out

   In [17]

class MyNet2(paddle.nn.Layer):    def __init__(self):        super(MyNet2, self).__init__()        self.resnet = paddle.vision.resnet50(pretrained=True, num_classes=0) # remove final fc 输出为[?, 2048, 1, 1]        self.flatten = paddle.nn.Flatten()        self.linear_1 = paddle.nn.Linear(2048, 512)        self.linear_2 = paddle.nn.Linear(512, 256)        self.linear_3 = paddle.nn.Linear(256, 2)        self.relu = paddle.nn.ReLU()        self.dropout = paddle.nn.Dropout(0.2)        def forward(self, inputs):        y = self.resnet(inputs)        y = self.flatten(y)        y = self.linear_1(y)        y = self.linear_2(y)        y = self.relu(y)        y = self.dropout(y)        y = self.linear_3(y)        y = paddle.nn.functional.sigmoid(y)        return y

   

异步加载数据

In [18]

train_loader = paddle.io.DataLoader(train_ds, places=paddle.CPUPlace(), batch_size=32, shuffle=True, num_workers=0)val_loader = paddle.io.DataLoader(val_ds, places=paddle.CPUPlace(), batch_size=32, shuffle=False, num_workers=0)test_loader=paddle.io.DataLoader(test_ds, places=paddle.CPUPlace(), batch_size=32, shuffle=False, num_workers=0)

   

自定义损失函数

In [19]

from sklearn.metrics.pairwise import euclidean_distances import paddle.nn as nn# 损失函数def cal_coordinate_Loss(logit, label, alpha = 0.5):    """    logit: shape [batch, ndim]    label: shape [batch, ndim]    ndim = 2 represents coordinate_x and coordinaate_y    alpha: weight for MSELoss and 1-alpha for ED loss    return: combine MSELoss and ED Loss for x and y, shape [batch, 1]    """    alpha = alpha    mse_loss = nn.MSELoss(reduction='mean')    mse_x = mse_loss(logit[:,0],label[:,0])    mse_y = mse_loss(logit[:,1],label[:,1])    mse_l = 0.5*(mse_x + mse_y)    # print('mse_l', mse_l)    ed_loss = []    # print(logit.shape[0])    for i in range(logit.shape[0]):        logit_tmp = logit[i,:].numpy()        label_tmp = label[i,:].numpy()        # print('cal_coordinate_loss_ed', logit_tmp, label_tmp)                ed_tmp = euclidean_distances([logit_tmp], [label_tmp])        # print('ed_tmp:', ed_tmp[0][0])        ed_loss.append(ed_tmp)        ed_l = sum(ed_loss)/len(ed_loss)    # print('ed_l', ed_l)    # print('alpha', alpha)    loss = alpha * mse_l + (1-alpha) * ed_l    # print('loss in function', loss)    return loss

   In [20]

class SelfDefineLoss(paddle.nn.Layer):   """   1. 继承paddle.nn.Layer   """   def __init__(self):       """       2. 构造函数根据自己的实际算法需求和使用需求进行参数定义即可       """       super(SelfDefineLoss, self).__init__()   def forward(self, input, label):       """       3. 实现forward函数,forward在调用时会传递两个参数:input和label           - input:单个或批次训练数据经过模型前向计算输出结果           - label:单个或批次训练数据对应的标签数据           接口返回值是一个Tensor,根据自定义的逻辑加和或计算均值后的损失       """       # 使用PaddlePaddle中相关API自定义的计算逻辑       output = cal_coordinate_Loss(input,label)       return output

   

模型训练与可视化

如果图片尺寸较大应适当调小Batch_size,防止爆显存。

In [22]

from utils import NMEimport warningswarnings.filterwarnings('ignore')visualdl=paddle.callbacks.VisualDL(log_dir='visual_log')#定义输入Batch_size=32EPOCHS=20step_each_epoch = len(train_ds)//Batch_size# 使用 paddle.Model 封装模型model = paddle.Model(MyNet2())#模型加载#model.load('/home/aistudio/work/lup/final')lr = paddle.optimizer.lr.CosineAnnealingDecay(learning_rate=1e-5,                                                T_max=step_each_epoch * EPOCHS)# 定义Adam优化器optimizer = paddle.optimizer.Adam(learning_rate=lr,                                weight_decay=1e-5,                                parameters=model.parameters())# 定义SmoothL1Lossloss =paddle.nn.SmoothL1Loss()#loss =SelfDefineLoss()# 使用自定义metricsmetric = NME()model.prepare(optimizer=optimizer, loss=loss, metrics=metric)# 训练可视化VisualDL工具的回调函数# 启动模型全流程训练model.fit(train_loader,  # 训练数据集          val_loader,   # 评估数据集          epochs=EPOCHS,       # 训练的总轮次          batch_size=Batch_size,  # 训练使用的批大小          save_dir="/home/aistudio/work/lup", #把模型参数、优化器参数保存至自定义的文件夹          save_freq=1,                    #设定每隔多少个epoch保存模型参数及优化器参数          verbose=1 ,      # 日志展示形式          callbacks=[visualdl]          )  # 设置可视化

       

The loss value printed in the log is the current step, and the metric is the average value of previous steps.Epoch 1/20step 20/20 [==============================] - loss: 0.0604 - nme: 0.4010 - 4s/step           save checkpoint at /home/aistudio/work/lup/0Eval begin...step 5/5 [==============================] - loss: 0.0053 - nme: 0.1495 - 8s/stepEval samples: 160Epoch 2/20step 20/20 [==============================] - loss: 0.0361 - nme: 0.3705 - 2s/step           save checkpoint at /home/aistudio/work/lup/1Eval begin...step 5/5 [==============================] - loss: 0.0100 - nme: 0.1334 - 2s/stepEval samples: 160Epoch 3/20step 20/20 [==============================] - loss: 0.0350 - nme: 0.3663 - 2s/step           save checkpoint at /home/aistudio/work/lup/2Eval begin...step 5/5 [==============================] - loss: 0.0096 - nme: 0.1611 - 2s/stepEval samples: 160Epoch 4/20step 20/20 [==============================] - loss: 0.0353 - nme: 0.3423 - 2s/step           save checkpoint at /home/aistudio/work/lup/3Eval begin...step 5/5 [==============================] - loss: 0.0057 - nme: 0.1399 - 2s/stepEval samples: 160Epoch 5/20step 20/20 [==============================] - loss: 0.0325 - nme: 0.3279 - 2s/step           save checkpoint at /home/aistudio/work/lup/4Eval begin...step 5/5 [==============================] - loss: 0.0063 - nme: 0.1391 - 2s/stepEval samples: 160Epoch 6/20step 20/20 [==============================] - loss: 0.0288 - nme: 0.3110 - 2s/step           save checkpoint at /home/aistudio/work/lup/5Eval begin...step 5/5 [==============================] - loss: 0.0057 - nme: 0.1273 - 2s/stepEval samples: 160Epoch 7/20step 20/20 [==============================] - loss: 0.0219 - nme: 0.2979 - 2s/step           save checkpoint at /home/aistudio/work/lup/6Eval begin...step 5/5 [==============================] - loss: 0.0060 - nme: 0.1356 - 2s/stepEval samples: 160Epoch 8/20step 20/20 [==============================] - loss: 0.0339 - nme: 0.3089 - 2s/step           save checkpoint at /home/aistudio/work/lup/7Eval begin...step 5/5 [==============================] - loss: 0.0060 - nme: 0.1382 - 2s/stepEval samples: 160Epoch 9/20step 20/20 [==============================] - loss: 0.0246 - nme: 0.3041 - 2s/step           save checkpoint at /home/aistudio/work/lup/8Eval begin...step 5/5 [==============================] - loss: 0.0067 - nme: 0.1365 - 2s/stepEval samples: 160Epoch 10/20step 20/20 [==============================] - loss: 0.0315 - nme: 0.3006 - 2s/step           save checkpoint at /home/aistudio/work/lup/9Eval begin...step 5/5 [==============================] - loss: 0.0061 - nme: 0.1383 - 2s/stepEval samples: 160Epoch 11/20step 20/20 [==============================] - loss: 0.0254 - nme: 0.3009 - 2s/step           save checkpoint at /home/aistudio/work/lup/10Eval begin...step 5/5 [==============================] - loss: 0.0061 - nme: 0.1386 - 2s/stepEval samples: 160Epoch 12/20step 20/20 [==============================] - loss: 0.0273 - nme: 0.2984 - 2s/step           save checkpoint at /home/aistudio/work/lup/11Eval begin...step 5/5 [==============================] - loss: 0.0069 - nme: 0.1412 - 2s/stepEval samples: 160Epoch 13/20step 20/20 [==============================] - loss: 0.0365 - nme: 0.2950 - 2s/step           save checkpoint at /home/aistudio/work/lup/12Eval begin...step 20/20 [==============================] - loss: 0.0340 - nme: 0.2917 - 2s/step           save checkpoint at /home/aistudio/work/lup/13Eval begin...step 5/5 [==============================] - loss: 0.0066 - nme: 0.1376 - 2s/stepEval samples: 160Epoch 15/20step 20/20 [==============================] - loss: 0.0331 - nme: 0.2910 - 2s/step           save checkpoint at /home/aistudio/work/lup/14Eval begin...step 5/5 [==============================] - loss: 0.0070 - nme: 0.1403 - 2s/stepEval samples: 160Epoch 16/20step 20/20 [==============================] - loss: 0.0334 - nme: 0.2885 - 2s/step           save checkpoint at /home/aistudio/work/lup/15Eval begin...step 5/5 [==============================] - loss: 0.0066 - nme: 0.1383 - 2s/stepEval samples: 160Epoch 17/20step 20/20 [==============================] - loss: 0.0373 - nme: 0.2919 - 2s/step           save checkpoint at /home/aistudio/work/lup/16Eval begin...step 5/5 [==============================] - loss: 0.0069 - nme: 0.1401 - 2s/stepEval samples: 160Epoch 18/20step 20/20 [==============================] - loss: 0.0232 - nme: 0.2843 - 2s/step           save checkpoint at /home/aistudio/work/lup/17Eval begin...step 5/5 [==============================] - loss: 0.0064 - nme: 0.1348 - 2s/stepEval samples: 160Epoch 19/20step 20/20 [==============================] - loss: 0.0291 - nme: 0.2869 - 2s/step           save checkpoint at /home/aistudio/work/lup/18Eval begin...step 5/5 [==============================] - loss: 0.0068 - nme: 0.1389 - 2s/stepEval samples: 160Epoch 20/20step 20/20 [==============================] - loss: 0.0342 - nme: 0.2946 - 2s/step           save checkpoint at /home/aistudio/work/lup/19Eval begin...step 5/5 [==============================] - loss: 0.0062 - nme: 0.1368 - 2s/stepEval samples: 160save checkpoint at /home/aistudio/work/lup/final

       

模型评估

In [23]

# 模型评估model.load('/home/aistudio/work/lup/5')result = model.evaluate(val_loader, verbose=1)print(result)

       

Eval begin...step 5/5 [==============================] - loss: 0.0057 - nme: 0.1273 - 2s/stepEval samples: 160{'loss': [0.005723397], 'nme': 0.1273284799297331}

       

进行预测操作

In [24]

# 进行预测操作result = model.predict(test_loader)

       

Predict begin...step 13/13 [==============================] - 2s/step          Predict samples: 400

       In [26]

# 获取测试图片尺寸和图片名test_path='常规赛:PALM眼底彩照中黄斑中央凹定位/PALM-Testing400-Images'test_size=[]FileName=[]for i in range(len(list)):    #path = os.path.join(test_path, list[i])    path=test_list[i]    img=cv2.imread(path,1)    test_size.append(img.shape)    FileName.append(list['FileName'][i])test_size=np.array(test_size)

   In [32]

result=np.array(result)pred=[]for i in range(len(result[0])):    pred.extend(result[0][i])pred=np.array(pred) pred = paddle.to_tensor(pred)out=np.array(pred).reshape(-1,2)#Fovea_X=out[:,0]*data_std+data_mean#Fovea_Y=out[:,1]*data_std+data_meanFovea_X=out[:,0]Fovea_Y=out[:,1]#Fovea_X=Fovea_X*test_size[:,1]#Fovea_Y=Fovea_Y*test_size[:,0]for i in range(400):    if test_labelx[i](test_size[i][1]-112):        x0=test_size[i][1]-112    else:        x0=test_labelx[i]-112    if test_labely[i]test_size[i][0]-112:        y0=test_size[i][0]-112    else:        y0=test_labely[i]-112    Fovea_X[i]=x0+Fovea_X[i]*224    Fovea_Y[i]=y0+Fovea_Y[i]*224submission = pd.DataFrame(data={                            "FileName": FileName,                            "Fovea_X": Fovea_X,                            "Fovea_Y": Fovea_Y                        })submission=submission.sort_values(by='FileName')submission.to_csv("result.csv", index=False)

   

结果文件查看

In [33]

submission.head()

       

    FileName      Fovea_X      Fovea_Y0  T0001.jpg  1275.212769   947.6381231  T0002.jpg  1078.371338  1054.0875242  T0003.jpg  1079.881104  1059.2928473  T0004.jpg  1302.749023  1016.5989384  T0005.jpg  1309.635010   701.692017

               

结果投票集成

简单投票集成学习,这个可以提升效果,尽量选得分高的进行投票。

在统计学和机器学习中,集成学习方法使用多种学习算法来获得比单独使用任何单独的学习算法更好的预测性能。

使用不同超参数、不同的特征,不同的结构,运行多次模型可得到不同的预测结果。在这里我使用的是简单投票法,取平均值作为最终的预测结果。 预测出多个result后,进行投票,代码如下:

In [ ]

import numpy as npimport blackhole.dataframe as pddf1=pd.read_csv('result40.14874.csv')df2=pd.read_csv('result41.98309.csv')df3=pd.read_csv('result54.70313.csv')df4=pd.read_csv('result49.75246.csv')dfs=[df1,df2,df3,df4]File_Name=[]Fovea_X=[]Fovea_Y=[]for i in range(len(df1)):    File_Name.append(dfs[0]['FileName'][i])    avgx=(sum(np.array(dfs[x]['Fovea_X'][i]) for x in range(len(dfs))))/len(dfs)    avgy=(sum(np.array(dfs[x]['Fovea_Y'][i]) for x in range(len(dfs))))/len(dfs)        Fovea_X.append(avgx)    Fovea_Y.append(avgy)submission = pd.DataFrame(data={                            "FileName": File_Name,                            "Fovea_X": Fovea_X,                            "Fovea_Y":Fovea_Y                        })submission=submission.sort_values(by='FileName')submission.to_csv("result.csv", index=False)

   

(5)总结及改善方向

1、多试几个的预训练模型。

2、选择合适的学习率。

3、更换别的优化器。

4、投票方法能提高成绩,但是存在天花板。

5、曾专门用训练神经网络对中央凹可见、不可见情况进行了分类,结果测试集并未分到中央凹不可见的类别,但是总觉得测试集定位应该有(0,0),不是很确定。

(6)飞桨使用体验+给其他选手学习飞桨的建议

建议大家多参加百度AI Studio课程,多看别人写的AI Studio项目,也许会有灵感迸发,在比赛中取得更好的成绩。

以上就是飞桨常规赛:PALM眼底彩照中黄斑中央凹定位-11月第1名方案的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/52471.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月9日 04:35:45
下一篇 2025年11月9日 04:41:52

相关推荐

  • CSS mask属性无法获取图片:为什么我的图片不见了?

    CSS mask属性无法获取图片 在使用CSS mask属性时,可能会遇到无法获取指定照片的情况。这个问题通常表现为: 网络面板中没有请求图片:尽管CSS代码中指定了图片地址,但网络面板中却找不到图片的请求记录。 问题原因: 此问题的可能原因是浏览器的兼容性问题。某些较旧版本的浏览器可能不支持CSS…

    2025年12月24日
    900
  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 为什么设置 `overflow: hidden` 会导致 `inline-block` 元素错位?

    overflow 导致 inline-block 元素错位解析 当多个 inline-block 元素并列排列时,可能会出现错位显示的问题。这通常是由于其中一个元素设置了 overflow 属性引起的。 问题现象 在不设置 overflow 属性时,元素按预期显示在同一水平线上: 不设置 overf…

    2025年12月24日 好文分享
    400
  • 网页使用本地字体:为什么 CSS 代码中明明指定了“荆南麦圆体”,页面却仍然显示“微软雅黑”?

    网页中使用本地字体 本文将解答如何将本地安装字体应用到网页中,避免使用 src 属性直接引入字体文件。 问题: 想要在网页上使用已安装的“荆南麦圆体”字体,但 css 代码中将其置于第一位的“font-family”属性,页面仍显示“微软雅黑”字体。 立即学习“前端免费学习笔记(深入)”; 答案: …

    2025年12月24日
    000
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • 旋转长方形后,如何计算其相对于画布左上角的轴距?

    绘制长方形并旋转,计算旋转后轴距 在拥有 1920×1080 画布中,放置一个宽高为 200×20 的长方形,其坐标位于 (100, 100)。当以任意角度旋转长方形时,如何计算它相对于画布左上角的 x、y 轴距? 以下代码提供了一个计算旋转后长方形轴距的解决方案: const x = 200;co…

    2025年12月24日
    000
  • 旋转长方形后,如何计算它与画布左上角的xy轴距?

    旋转后长方形在画布上的xy轴距计算 在画布中添加一个长方形,并将其旋转任意角度,如何计算旋转后的长方形与画布左上角之间的xy轴距? 问题分解: 要计算旋转后长方形的xy轴距,需要考虑旋转对长方形宽高和位置的影响。首先,旋转会改变长方形的长和宽,其次,旋转会改变长方形的中心点位置。 求解方法: 计算旋…

    2025年12月24日
    000
  • 旋转长方形后如何计算其在画布上的轴距?

    旋转长方形后计算轴距 假设长方形的宽、高分别为 200 和 20,初始坐标为 (100, 100),我们将它旋转一个任意角度。根据旋转矩阵公式,旋转后的新坐标 (x’, y’) 可以通过以下公式计算: x’ = x * cos(θ) – y * sin(θ)y’ = x * …

    2025年12月24日
    000
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 为什么我的特定 DIV 在 Edge 浏览器中无法显示?

    特定 DIV 无法显示:用户代理样式表的困扰 当你在 Edge 浏览器中打开项目中的某个 div 时,却发现它无法正常显示,仔细检查样式后,发现是由用户代理样式表中的 display none 引起的。但你疑问的是,为什么会出现这样的样式表,而且只针对特定的 div? 背后的原因 用户代理样式表是由…

    2025年12月24日
    200
  • 如何计算旋转后长方形在画布上的轴距?

    旋转后长方形与画布轴距计算 在给定的画布中,有一个长方形,在随机旋转一定角度后,如何计算其在画布上的轴距,即距离左上角的距离? 以下提供一种计算长方形相对于画布左上角的新轴距的方法: const x = 200; // 初始 x 坐标const y = 90; // 初始 y 坐标const w =…

    2025年12月24日
    200
  • CSS元素设置em和transition后,为何载入页面无放大效果?

    css元素设置em和transition后,为何载入无放大效果 很多开发者在设置了em和transition后,却发现元素载入页面时无放大效果。本文将解答这一问题。 原问题:在视频演示中,将元素设置如下,载入页面会有放大效果。然而,在个人尝试中,并未出现该效果。这是由于macos和windows系统…

    2025年12月24日
    200
  • inline-block元素错位了,是为什么?

    inline-block元素错位背后的原因 inline-block元素是一种特殊类型的块级元素,它可以与其他元素行内排列。但是,在某些情况下,inline-block元素可能会出现错位显示的问题。 错位的原因 当inline-block元素设置了overflow:hidden属性时,它会影响元素的…

    2025年12月24日
    000
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200

发表回复

登录后才能评论
关注微信