基于分割网络Unet生成虚拟图像

本文基于Unet分割网络,利用49例头部磁共振T1、T2数据,通过配准使二者解剖位置一致,转换数据格式并裁剪窗宽窗位,构建数据集。以T1为输入、T2为标签训练Unet进行回归,用SSIM评估,经200轮训练,最佳SSIM达0.571,实现由T1生成虚拟T2图像。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

基于分割网络unet生成虚拟图像 - 创想鸟

基于分割网络Unet生成虚拟图像

这个想法是基于

[1]高留刚, 李春迎, 陆正大,等. 基于卷积神经网络生成虚拟平扫CT图像[J]. 中国医学影像技术, 2022, 38(3):5.

【1】文章使用Unet对增强CT数据进行训练,最终预测生成对应的虚拟平扫CT图像,达到只需要对患者扫描一次CT即可,避免患者接受过多的放射辐射。基于分割网络Unet生成虚拟图像 - 创想鸟

【2】因为本项目没有对应的CT数据,刚好有一个T1、T2磁共振头部公开数据,先磁共振数据进行配准,然后输入T1模态的数据到Unet中然后生成对应的T2模态数据。基于分割网络Unet生成虚拟图像 - 创想鸟

1. 数据

数量:49例

模态和部位:磁共振的T1和T2头部数据 基于分割网络Unet生成虚拟图像 - 创想鸟

In [ ]

#解压数据!unzip -o /home/aistudio/data/data146796/mydata.zip -d /home/aistudio/work

In [ ]

#antspyx 是一个配准工具包,SImpleITK处理医学数据!pip install antspyx SimpleITK

In [ ]

import osimport antsimport SimpleITK as sitkfrom tqdm import tqdmimport numpy as npimport randomimport matplotlib.pyplot as pltimport paddleimport cv2

2. 对数据进行配准

项是利用 Unet对像素数值进行回归预测。所以在进入网路之前,除了像素值的尺寸不同之外,原资料与标记资料的解剖学位置应当是相同的。因此,必须将原始资料与标签资料进行匹配,使二者重新整合。比如下面这张图片,T1有256层,T2有136层,显然是解剖位置不对,然后经过配准后的T2有256层,和T1层的解剖学位置一模一样。对齐后的数据可以作为标记输入到网络中。基于分割网络Unet生成虚拟图像 - 创想鸟

In [ ]

#因为配准花费的时间太久太久了,本项目的数据已经包含好了配准后的数据。#因此不用运行此代码path  = '/home/aistudio/work/mydata/IXI-T1'for f in tqdm(os.listdir(path)):    f_path = os.path.join(path,f)    m_path = os.path.join('/home/aistudio/work/mydata/IXI-T2',f.replace('T1','T2'))    f_img = ants.image_read(f_path)    m_img = ants.image_read(m_path)    mytx = ants.registration(fixed=f_img, moving=m_img, type_of_transform='SyN')    # 将形变场作用于moving图像,得到配准后的图像    warped_img = ants.apply_transforms(fixed=f_img, moving=m_img, transformlist=mytx['fwdtransforms'],                                    interpolator="linear")    # 将配准后图像的direction/origin/spacing和原图保持一致    warped_img.set_direction(f_img.direction)    warped_img.set_origin(f_img.origin)    warped_img.set_spacing(f_img.spacing)    img_name = '/home/aistudio/work/mydata/IXI-T2-warped/'+ f.replace('T1','Warped')    # ants.image_write(warped_img, img_name)print("End")

3. 转换数据形式

原始数据格式是NIFIT,是属于医疗数据格式的一种。把NIFIT数据转换成numpy,并对窗宽窗位进行裁剪到0~255。并生成txt文档,用作构建DataSet使用。

In [ ]

random.seed(2022)save_path = '/home/aistudio/work/npdata'save_origin_path = "/home/aistudio/work/npdata/origin/"save_label_path =  "/home/aistudio/work/npdata/label/"if not os.path.exists(save_path):    os.mkdir(save_path)    os.mkdir(save_origin_path)    os.mkdir(save_label_path)origin_data = '/home/aistudio/work/mydata/IXI-T1'f_list = os.listdir(origin_data)random.shuffle(f_list)split = int(len(f_list)*0.9)t_f_list = f_list[:split]v_f_list = f_list[split:]def gen_txt(f_list,name):    txt = open( os.path.join(save_path,name),'w')    for f in f_list:        if '.ipynb_checkpoints' in f:            continue        f_path = os.path.join(origin_data,f)        tag_path = os.path.join(origin_data.replace('T1','T2-warped'),f.replace('T1','Warped'))        f_sitkData = sitk.ReadImage(f_path)        tag_sitkData = sitk.ReadImage(tag_path)        f_npData = sitk.GetArrayFromImage(f_sitkData)        tag_npData = sitk.GetArrayFromImage(tag_sitkData)        f.split('-')[0]        for i in range(100,200):            f_slice = np.rot90(f_npData[:,i,:],-1)            tag_slice = np.rot90(tag_npData[:,i,:],-1)            f_slice = (f_slice - 0) / ((835 - 0) / 255)            np.clip(f_slice, 0, 255, out=f_slice)            tag_slice = (tag_slice - 0) / ((626 - 0) / 255)            np.clip(tag_slice, 0, 255, out=tag_slice)                        f_save_path = save_origin_path+f.split('-')[0]+'_'+str(i) +'.npy'            tag_save_path = save_label_path+f.split('-')[0]+'_'+str(i) +'.npy'            np.save(f_save_path,f_slice)            np.save(tag_save_path,tag_slice)            txt.write(f_save_path + ' ' + tag_save_path+ 'n')    txt.close()gen_txt(t_f_list,name='train.txt')gen_txt(v_f_list,name='val.txt')print('完成')

4. 构建Dataset

数据增强只采用 缩放到256×256。

In [4]

from paddle.io import Dataset, DataLoaderfrom paddle.vision.transforms import Resizeclass MyDataset(Dataset):    def __init__(self, data_dir, txt_path, transform=None):        super(MyDataset, self).__init__()        self.data_list = []        with open(txt_path,encoding='utf-8') as f:            for line in f.readlines():                image_path, label_path = line.split(' ')                image_path = image_path.strip()                label_path = label_path.strip()                image_path = os.path.join(data_dir, image_path)                label_path = os.path.join(data_dir,label_path)                self.data_list.append([image_path, label_path])        self.transform = transform    def __getitem__(self, index):        image_path, label_path = self.data_list[index]        image = np.load(image_path)        label = np.load(label_path)        if self.transform is not None:            image = self.transform(image)            label = self.transform(label)                image = image[np.newaxis,:].astype('float32')        label = label[np.newaxis,:].astype('float32')        return image, label    def __len__(self):        return len(self.data_list)BatchSize = 24transform = Resize(size=(256,256))t_dataset = MyDataset('/home/aistudio','work/npdata/train.txt',transform=transform)v_dataset = MyDataset('/home/aistudio','work/npdata/val.txt',transform=transform)train_loader = DataLoader(t_dataset,batch_size=BatchSize)  val_loader = DataLoader(v_dataset,batch_size=BatchSize)

5. 评价指标 SSIM

SSIM (Structure Similarity Index Measure) 结构衡量指标

结构相似指标可以衡量图片的失真程度,也可以衡量两张图片的相似程度,SSIM指标感知模型,即更符合人眼的直观感受。SSIM 主要考量图片的三个关键特征:亮度(Luminance), 对比度(Contrast), 结构 (Structure)。SSIM取值约接近1,两张图片的相似度约接近。两张图片一模一样,SSIM=1

参考文章 https://zhuanlan.zhihu.com/p/399215180

In [6]

def ssim(img1, img2):  C1 = (0.01 * 255)**2  C2 = (0.03 * 255)**2  img1 = img1.astype(np.float64)  img2 = img2.astype(np.float64)  kernel = cv2.getGaussianKernel(11, 1.5)  window = np.outer(kernel, kernel.transpose())  mu1 = cv2.filter2D(img1, -1, window)[5:-5, 5:-5] # valid  mu2 = cv2.filter2D(img2, -1, window)[5:-5, 5:-5]  mu1_sq = mu1**2  mu2_sq = mu2**2  mu1_mu2 = mu1 * mu2  sigma1_sq = cv2.filter2D(img1**2, -1, window)[5:-5, 5:-5] - mu1_sq  sigma2_sq = cv2.filter2D(img2**2, -1, window)[5:-5, 5:-5] - mu2_sq  sigma12 = cv2.filter2D(img1 * img2, -1, window)[5:-5, 5:-5] - mu1_mu2  ssim_map = ((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) *                              (sigma1_sq + sigma2_sq + C2))  return ssim_map.mean()def calculate_ssim(img1, img2):  if not img1.shape == img2.shape:    raise ValueError('Input images must have the same dimensions.')  if img1.ndim == 2:    return ssim(img1, img2)  elif img1.ndim == 3:    if img1.shape[2] == 3:      ssims = []      for i in range(3):        ssims.append(ssim(img1, img2))      return np.array(ssims).mean()    elif img1.shape[2] == 1:      return ssim(np.squeeze(img1), np.squeeze(img2))  else:    raise ValueError('Wrong input image dimensions.')for data in t_dataset:    img1,img2 = data    plt.figure(figsize=(10,6))    plt.subplot(1,2,1)    plt.imshow(np.squeeze(img1),'gray')    plt.title("T1 mode")    plt.subplot(1,2,2)    plt.imshow(np.squeeze(img2),'gray')    plt.title("T2 mode")    print(f'SSIM:{calculate_ssim(np.squeeze(img1),np.squeeze(img2))}')    break
SSIM:0.4927141870957079

6. 导入Unet模型,开始训练

Unet网络是一种语义分割网络,输入原始图像和对应的标签Mask图像到Unet网络中进行分割,最终输出和标签Mask一致的图像。实际也是对像素值进行分类。把原始图像中的像素值进行分类,到底是属于Mask图像中像素值0,还是像素值1等等。这里是使用Unet网络进行回归,因此网络输出的类别是1。基于分割网络Unet生成虚拟图像 - 创想鸟

In [8]

from model.unet import UNetimg = paddle.rand([2, 1, 256, 256])model = UNet()out = model(paddle.rand([2, 1, 256, 256]))print(out.shape)
[2, 1, 256, 256]

In [9]

def evaluation(model,val_dataset):    """验证"""    model.eval()    ssims = []    for data in val_dataset:        image,label = data        image = image[np.newaxis,:].astype('float32')        image = paddle.to_tensor(image)        pre = model(image).numpy()        pre = np.squeeze(pre).astype('int32')        ssims.append(calculate_ssim(np.squeeze(label.astype('int32')),pre))    return np.array(ssims).mean()def train(model,epochs):    if not os.path.exists('/home/aistudio/save_model'):        os.mkdir('/home/aistudio/save_model')    steps = int(len(t_dataset)/BatchSize) * epochs    best_ssim = 0 #记录最优的ssim得分    model.train()    scheduler = paddle.optimizer.lr.PolynomialDecay(learning_rate=0.05, decay_steps=steps, verbose=False)    opt = paddle.optimizer.Adam(learning_rate=scheduler, parameters=model.parameters())        for epoch_id in range(epochs):        for batch_id, data in enumerate(train_loader()):            images, labels = data            images = paddle.to_tensor(images)            labels = paddle.to_tensor(labels)            predicts = model(images)            mse_loss = paddle.nn.MSELoss()            l1_loss = paddle.nn.L1Loss()            loss = mse_loss(predicts, labels)+l1_loss(predicts,labels)            if batch_id % 200 == 0:                print("epoch: {}, batch: {}, loss is: {}".format(epoch_id, batch_id, loss.numpy()))            loss.backward()            opt.step()            opt.clear_grad()        #训练过程中,保存模型参数        if epoch_id % 10 == 0:            paddle.save(model.state_dict(), '/home/aistudio/save_model/'+str(epoch_id)+'model.pdparams')                        model.eval()            #训练过程中,预览效果,输入T1图片,预测t2图片            data = t_dataset[150]            img,label = data            input = img[np.newaxis,:].astype('float32')            input = paddle.to_tensor(input)            pre = model(input).numpy()            pre = np.squeeze(pre)            plt.figure(figsize=(12,6))            plt.subplot(1,3,1)            plt.imshow(np.squeeze(img),'gray')            plt.title("input: T1 mode")            plt.subplot(1,3,2)            plt.imshow(np.squeeze(label),'gray')            plt.title("target:T2 mode")            plt.subplot(1,3,3)            plt.imshow(pre,'gray')            plt.title("pre: T2 mode")            plt.show()            v_ssim_mean = evaluation(model, v_dataset)            if v_ssim_mean > best_ssim:                paddle.save(model.state_dict(), '/home/aistudio/save_model/best_model.pdparams')                best_ssim = v_ssim_mean            model.train()            print(f'val_SSIM: {v_ssim_mean},Best_SSIM:{best_ssim}')       #启动训练过程train(model,epochs= 200)
epoch: 0, batch: 0, loss is: [7316.7188]
val_SSIM: 0.39978080604275146,Best_SSIM:0.39978080604275146epoch: 1, batch: 0, loss is: [2628.9192]epoch: 2, batch: 0, loss is: [2724.6853]epoch: 3, batch: 0, loss is: [2688.8508]epoch: 4, batch: 0, loss is: [2686.88]epoch: 5, batch: 0, loss is: [2608.186]epoch: 6, batch: 0, loss is: [2520.5952]epoch: 7, batch: 0, loss is: [2692.3694]epoch: 8, batch: 0, loss is: [2702.1028]epoch: 9, batch: 0, loss is: [2628.6016]epoch: 10, batch: 0, loss is: [2485.4382]
val_SSIM: 0.4802982366278921,Best_SSIM:0.4802982366278921epoch: 11, batch: 0, loss is: [2507.683]epoch: 12, batch: 0, loss is: [2434.3452]epoch: 13, batch: 0, loss is: [2408.262]epoch: 14, batch: 0, loss is: [2332.7097]epoch: 15, batch: 0, loss is: [2270.0247]epoch: 16, batch: 0, loss is: [2179.795]epoch: 17, batch: 0, loss is: [2138.3933]epoch: 18, batch: 0, loss is: [2093.4106]epoch: 19, batch: 0, loss is: [1887.1506]epoch: 20, batch: 0, loss is: [2024.5569]
val_SSIM: 0.49954443953370115,Best_SSIM:0.49954443953370115epoch: 21, batch: 0, loss is: [1973.8619]epoch: 22, batch: 0, loss is: [1956.6097]epoch: 23, batch: 0, loss is: [1909.3981]epoch: 24, batch: 0, loss is: [1875.7285]epoch: 25, batch: 0, loss is: [1837.553]epoch: 26, batch: 0, loss is: [1812.5168]epoch: 27, batch: 0, loss is: [1785.5492]epoch: 28, batch: 0, loss is: [1774.7295]epoch: 29, batch: 0, loss is: [1752.758]epoch: 30, batch: 0, loss is: [1756.8203]
val_SSIM: 0.5426780015544808,Best_SSIM:0.5426780015544808epoch: 31, batch: 0, loss is: [1735.7894]epoch: 32, batch: 0, loss is: [1827.0814]epoch: 33, batch: 0, loss is: [1753.9219]epoch: 34, batch: 0, loss is: [1779.7365]epoch: 35, batch: 0, loss is: [1752.4994]epoch: 36, batch: 0, loss is: [1747.4668]epoch: 37, batch: 0, loss is: [1735.7844]epoch: 38, batch: 0, loss is: [1769.8733]epoch: 39, batch: 0, loss is: [1759.1631]epoch: 40, batch: 0, loss is: [1630.8364]
val_SSIM: 0.4373114577520071,Best_SSIM:0.5426780015544808epoch: 41, batch: 0, loss is: [1611.3628]epoch: 42, batch: 0, loss is: [1715.6615]epoch: 43, batch: 0, loss is: [1763.4269]epoch: 44, batch: 0, loss is: [1737.9359]epoch: 45, batch: 0, loss is: [1772.5739]epoch: 46, batch: 0, loss is: [1738.1847]epoch: 47, batch: 0, loss is: [1775.006]epoch: 48, batch: 0, loss is: [1911.8531]epoch: 49, batch: 0, loss is: [2033.4453]epoch: 50, batch: 0, loss is: [1987.3456]
val_SSIM: 0.5579299673856584,Best_SSIM:0.5579299673856584epoch: 51, batch: 0, loss is: [1836.5175]epoch: 52, batch: 0, loss is: [1861.1411]epoch: 53, batch: 0, loss is: [1845.1718]epoch: 54, batch: 0, loss is: [1740.5963]epoch: 55, batch: 0, loss is: [1660.3125]epoch: 56, batch: 0, loss is: [1726.9702]epoch: 57, batch: 0, loss is: [1635.8535]epoch: 58, batch: 0, loss is: [1610.6799]epoch: 59, batch: 0, loss is: [1568.5394]epoch: 60, batch: 0, loss is: [1617.876]
val_SSIM: 0.5634165131362056,Best_SSIM:0.5634165131362056epoch: 61, batch: 0, loss is: [1561.1827]epoch: 62, batch: 0, loss is: [1597.7261]epoch: 63, batch: 0, loss is: [1525.599]epoch: 64, batch: 0, loss is: [1548.1874]epoch: 65, batch: 0, loss is: [1488.4364]epoch: 66, batch: 0, loss is: [1513.0366]epoch: 67, batch: 0, loss is: [1505.5546]epoch: 68, batch: 0, loss is: [1516.5098]epoch: 69, batch: 0, loss is: [1467.4851]epoch: 70, batch: 0, loss is: [1585.8317]
val_SSIM: 0.5709971328311436,Best_SSIM:0.5709971328311436epoch: 71, batch: 0, loss is: [1457.6887]epoch: 72, batch: 0, loss is: [1467.6174]epoch: 73, batch: 0, loss is: [1471.8882]epoch: 74, batch: 0, loss is: [1459.0536]epoch: 75, batch: 0, loss is: [1458.9404]epoch: 76, batch: 0, loss is: [1634.24]epoch: 77, batch: 0, loss is: [1650.2292]epoch: 78, batch: 0, loss is: [1437.5302]epoch: 79, batch: 0, loss is: [1421.7593]epoch: 80, batch: 0, loss is: [1413.1609]
val_SSIM: 0.5701560896501561,Best_SSIM:0.5709971328311436epoch: 81, batch: 0, loss is: [1409.3071]epoch: 82, batch: 0, loss is: [1404.0553]epoch: 83, batch: 0, loss is: [1420.5449]epoch: 84, batch: 0, loss is: [1398.2864]epoch: 85, batch: 0, loss is: [1488.5781]epoch: 86, batch: 0, loss is: [1401.356]epoch: 87, batch: 0, loss is: [1410.7175]epoch: 88, batch: 0, loss is: [1500.6272]epoch: 89, batch: 0, loss is: [1416.3497]epoch: 90, batch: 0, loss is: [1380.4263]
val_SSIM: 0.5465621052241267,Best_SSIM:0.5709971328311436epoch: 91, batch: 0, loss is: [1372.7605]epoch: 92, batch: 0, loss is: [1367.5848]epoch: 93, batch: 0, loss is: [1376.7378]epoch: 94, batch: 0, loss is: [1370.2089]epoch: 95, batch: 0, loss is: [1365.8433]epoch: 96, batch: 0, loss is: [1369.1512]epoch: 97, batch: 0, loss is: [1369.3212]epoch: 98, batch: 0, loss is: [1404.3115]epoch: 99, batch: 0, loss is: [1354.4286]epoch: 100, batch: 0, loss is: [1382.9532]
val_SSIM: 0.5378666148453135,Best_SSIM:0.5709971328311436epoch: 101, batch: 0, loss is: [1387.7471]epoch: 102, batch: 0, loss is: [1424.3396]epoch: 103, batch: 0, loss is: [1349.6024]epoch: 104, batch: 0, loss is: [1366.5181]epoch: 105, batch: 0, loss is: [1352.3512]epoch: 106, batch: 0, loss is: [1353.1865]epoch: 107, batch: 0, loss is: [1352.0631]epoch: 108, batch: 0, loss is: [1343.2163]epoch: 109, batch: 0, loss is: [1345.3413]epoch: 110, batch: 0, loss is: [1346.6847]
val_SSIM: 0.5586893791021966,Best_SSIM:0.5709971328311436epoch: 111, batch: 0, loss is: [1343.9454]epoch: 112, batch: 0, loss is: [1349.0774]epoch: 113, batch: 0, loss is: [1337.5864]epoch: 114, batch: 0, loss is: [1429.8538]epoch: 115, batch: 0, loss is: [1349.8104]epoch: 116, batch: 0, loss is: [1335.1368]epoch: 117, batch: 0, loss is: [1337.9221]epoch: 118, batch: 0, loss is: [1352.1951]epoch: 119, batch: 0, loss is: [1347.4542]epoch: 120, batch: 0, loss is: [1336.236]
val_SSIM: 0.4977443843057142,Best_SSIM:0.5709971328311436epoch: 121, batch: 0, loss is: [1341.1677]epoch: 122, batch: 0, loss is: [1325.7648]epoch: 123, batch: 0, loss is: [1322.5]epoch: 124, batch: 0, loss is: [1322.8683]epoch: 125, batch: 0, loss is: [1319.6675]epoch: 126, batch: 0, loss is: [1319.3303]epoch: 127, batch: 0, loss is: [1320.0753]epoch: 128, batch: 0, loss is: [1316.222]epoch: 129, batch: 0, loss is: [1336.7915]epoch: 130, batch: 0, loss is: [1321.2736]
val_SSIM: 0.47030362428033146,Best_SSIM:0.5709971328311436epoch: 131, batch: 0, loss is: [1339.2891]epoch: 132, batch: 0, loss is: [1318.2183]epoch: 133, batch: 0, loss is: [1325.5737]epoch: 134, batch: 0, loss is: [1308.886]epoch: 135, batch: 0, loss is: [1298.8752]epoch: 136, batch: 0, loss is: [1302.0266]epoch: 137, batch: 0, loss is: [1279.0824]epoch: 138, batch: 0, loss is: [1313.5026]epoch: 139, batch: 0, loss is: [1317.8335]epoch: 140, batch: 0, loss is: [1325.1211]
val_SSIM: 0.5129117285623543,Best_SSIM:0.5709971328311436epoch: 141, batch: 0, loss is: [1307.1959]epoch: 142, batch: 0, loss is: [1312.2686]epoch: 143, batch: 0, loss is: [1320.1404]epoch: 144, batch: 0, loss is: [1326.3783]epoch: 145, batch: 0, loss is: [1308.4757]epoch: 146, batch: 0, loss is: [1318.8088]epoch: 147, batch: 0, loss is: [1297.8518]epoch: 148, batch: 0, loss is: [1296.301]epoch: 149, batch: 0, loss is: [1301.2318]epoch: 150, batch: 0, loss is: [1290.0143]
val_SSIM: 0.4650640222375466,Best_SSIM:0.5709971328311436epoch: 151, batch: 0, loss is: [1320.3531]epoch: 152, batch: 0, loss is: [1311.9688]epoch: 153, batch: 0, loss is: [1302.6729]epoch: 154, batch: 0, loss is: [1302.4635]epoch: 155, batch: 0, loss is: [1286.9762]epoch: 156, batch: 0, loss is: [1284.86]epoch: 157, batch: 0, loss is: [1290.937]epoch: 158, batch: 0, loss is: [1274.3252]epoch: 159, batch: 0, loss is: [1280.6571]epoch: 160, batch: 0, loss is: [1286.4685]
val_SSIM: 0.4561319579342975,Best_SSIM:0.5709971328311436epoch: 161, batch: 0, loss is: [1270.9604]epoch: 162, batch: 0, loss is: [1287.5771]epoch: 163, batch: 0, loss is: [1269.8563]epoch: 164, batch: 0, loss is: [1286.9226]epoch: 165, batch: 0, loss is: [1272.0933]epoch: 166, batch: 0, loss is: [1274.8392]epoch: 167, batch: 0, loss is: [1272.4178]epoch: 168, batch: 0, loss is: [1266.7671]epoch: 169, batch: 0, loss is: [1282.4298]epoch: 170, batch: 0, loss is: [1247.015]
val_SSIM: 0.49646587443554935,Best_SSIM:0.5709971328311436epoch: 171, batch: 0, loss is: [1250.8077]epoch: 172, batch: 0, loss is: [1287.3835]epoch: 173, batch: 0, loss is: [1248.3782]epoch: 174, batch: 0, loss is: [1249.7322]epoch: 175, batch: 0, loss is: [1273.4828]epoch: 176, batch: 0, loss is: [1253.0632]epoch: 177, batch: 0, loss is: [1281.6831]epoch: 178, batch: 0, loss is: [1280.6669]epoch: 179, batch: 0, loss is: [1245.0092]epoch: 180, batch: 0, loss is: [1257.4398]
val_SSIM: 0.46512517332255776,Best_SSIM:0.5709971328311436epoch: 181, batch: 0, loss is: [1242.4584]epoch: 182, batch: 0, loss is: [1254.164]epoch: 183, batch: 0, loss is: [1238.1926]epoch: 184, batch: 0, loss is: [1243.1198]epoch: 185, batch: 0, loss is: [1248.0677]epoch: 186, batch: 0, loss is: [1240.6064]epoch: 187, batch: 0, loss is: [1252.3843]epoch: 188, batch: 0, loss is: [1230.179]epoch: 189, batch: 0, loss is: [1237.1627]epoch: 190, batch: 0, loss is: [1232.43]
val_SSIM: 0.4939679476601408,Best_SSIM:0.5709971328311436epoch: 191, batch: 0, loss is: [1245.5471]epoch: 192, batch: 0, loss is: [1255.1567]epoch: 193, batch: 0, loss is: [1250.8704]epoch: 194, batch: 0, loss is: [1223.4425]epoch: 195, batch: 0, loss is: [1224.8658]epoch: 196, batch: 0, loss is: [1230.7142]epoch: 197, batch: 0, loss is: [1229.7573]epoch: 198, batch: 0, loss is: [1235.9465]epoch: 199, batch: 0, loss is: [1225.0635]

以上就是基于分割网络Unet生成虚拟图像的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/59535.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月10日 14:50:42
下一篇 2025年11月10日 15:04:58

相关推荐

  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000
  • 使用CSS mask属性指定图片URL时,为什么浏览器无法加载图片?

    css mask属性未能加载图片的解决方法 使用css mask属性指定图片url时,如示例中所示: mask: url(“https://api.iconify.design/mdi:apple-icloud.svg”) center / contain no-repeat; 但是,在网络面板中却…

    2025年12月24日
    000
  • 如何用CSS Paint API为网页元素添加时尚的斑马线边框?

    为元素添加时尚的斑马线边框 在网页设计中,有时我们需要添加时尚的边框来提升元素的视觉效果。其中,斑马线边框是一种既醒目又别致的设计元素。 实现斜向斑马线边框 要实现斜向斑马线间隔圆环,我们可以使用css paint api。该api提供了强大的功能,可以让我们在元素上绘制复杂的图形。 立即学习“前端…

    2025年12月24日
    000
  • 图片如何不撑高父容器?

    如何让图片不撑高父容器? 当父容器包含不同高度的子元素时,父容器的高度通常会被最高元素撑开。如果你希望父容器的高度由文本内容撑开,避免图片对其产生影响,可以通过以下 css 解决方法: 绝对定位元素: .child-image { position: absolute; top: 0; left: …

    2025年12月24日
    000
  • CSS 帮助

    我正在尝试将文本附加到棕色框的左侧。我不能。我不知道代码有什么问题。请帮助我。 css .hero { position: relative; bottom: 80px; display: flex; justify-content: left; align-items: start; color:…

    2025年12月24日 好文分享
    200
  • 前端代码辅助工具:如何选择最可靠的AI工具?

    前端代码辅助工具:可靠性探讨 对于前端工程师来说,在HTML、CSS和JavaScript开发中借助AI工具是司空见惯的事情。然而,并非所有工具都能提供同等的可靠性。 个性化需求 关于哪个AI工具最可靠,这个问题没有一刀切的答案。每个人的使用习惯和项目需求各不相同。以下是一些影响选择的重要因素: 立…

    2025年12月24日
    300
  • 如何用 CSS Paint API 实现倾斜的斑马线间隔圆环?

    实现斑马线边框样式:探究 css paint api 本文将探究如何使用 css paint api 实现倾斜的斑马线间隔圆环。 问题: 给定一个有多个圆圈组成的斑马线图案,如何使用 css 实现倾斜的斑马线间隔圆环? 答案: 立即学习“前端免费学习笔记(深入)”; 使用 css paint api…

    2025年12月24日
    000
  • 如何使用CSS Paint API实现倾斜斑马线间隔圆环边框?

    css实现斑马线边框样式 想定制一个带有倾斜斑马线间隔圆环的边框?现在使用css paint api,定制任何样式都轻而易举。 css paint api 这是一个新的css特性,允许开发人员创建自定义形状和图案,其中包括斑马线样式。 立即学习“前端免费学习笔记(深入)”; 实现倾斜斑马线间隔圆环 …

    2025年12月24日
    100

发表回复

登录后才能评论
关注微信