Paddle2.0案例: 人体姿态关键点检测

本文介绍基于Paddle2.0实现人体姿态关键点检测的案例。先说明关键点检测的意义与两类方法,强调人体姿态检测的特殊性及常用热力图回归法。接着讲解环境设置、COCO数据集处理、数据集定义与抽样展示,还构建了基于ResNet的PoseNet模型,阐述训练过程与预测结果,展示不同训练程度模型的效果差异。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

paddle2.0案例: 人体姿态关键点检测 - 创想鸟

关键点检测方法及应用2: 人体姿态关键点检测

本示例教程当前是基于2.0-rc版本Paddle做的案例实现,未来会随着2.0的系列版本发布进行升级。

1.简要介绍

在图像处理中,关键点本质上是一种特征。它是对一个固定区域或者空间物理关系的抽象描述,描述的是一定邻域范围内的组合或上下文关系。它不仅仅是一个点信息,或代表一个位置,更代表着上下文与周围邻域的组合关系。关键点检测的目标就是通过计算机从图像中找出这些点的坐标,作为计算机视觉领域的一个基础任务,关键点的检测对于高级别任务,例如识别和分类具有至关重要的意义。

关键点检测方法总体上可以分成两个类型,一个种是用坐标回归的方式来解决,另一种是将关键点建模成热力图,通过像素分类任务,回归热力图分布得到关键点位置。这两个方法,都是一种手段或者是途径,解决的问题就是要找出这个点在图像当中的位置与关系。

人脸关键点检测是最基于坐标回归的关键点检测方法,在案例Paddle2.0案例: 人脸关键点检测简要介绍如何通过飞桨开源框架实现人脸关键点检测的训练和预测。

人体姿态关键点检测(Human Keypoint Detection)又称为人体姿态识别,旨在准确定位图像之中人体关节点的位置,是人体动作识别、人体行为分析、人机交互的前置任务。与人脸关键点检测不同,人体的躯干部位更为灵活,变化更为难以预测,基于坐标回归的方法难以胜任,通常使用热力图回归的关键点检测方法。

这个案例基于人体姿态估计与追踪之关键点检测,使用新版的paddle2.0的API对人体姿态关键点模型Simple Baselines for Human Pose Estimation and Tracking进行复现,并使用集成式的训练接口,更方便地对模型进行训练和预测。

2.环境设置

导入必要的模块,确认自己的飞桨版本。 如果是cpu环境,请安装cpu版本的paddle2.0环境,在 paddle.set_device() 输入对应运行设备。

In [ ]

!unzip -o cocoapi.zip -d work!cd work/cocoapi/PythonAPI && python setup.py installprint('API安装完成')

安装完成后重启环境。

In [1]

import numpy as npimport matplotlib.pyplot as pltimport pandas as pdimport osimport argparseimport paddlefrom paddle.io import Datasetfrom paddle.vision.transforms import transformsfrom paddle.vision.models import resnet18from paddle.nn import functional as Fprint(paddle.__version__)# 选择CPU/GPU环境# device = paddle.set_device('cpu')device = paddle.set_device('gpu')from pycocotools.coco import COCOimport pdbimport randomimport cv2from work.transforms import fliplr_jointsfrom work.transforms import get_affine_transformfrom work.transforms import affine_transform
2.0.0-rc1

3.数据集

目前COCO keypoint track是人体关键点检测的权威公开比赛之一,COCO数据集中把人体关键点表示为17个关节,分别是鼻子,左右眼,左右耳,左右肩,左右肘,左右腕,左右臀,左右膝,左右脚踝。而人体关键点检测的任务就是从输入的图片中检测到人体及对应的关键点位置。

3.1 数据集说明

本案例提供了两个数据集

COCO2017数据集,对应data/data7122coco-关键点检测,对应data/data9663

第一个是完整的coco数据集,包含了用于多种任务的完整标注。本示例由于展示需要,第二个数据集仅从coco数据集中抽取出了100张包含人体图像,仅包含人体关键点的标注。

如果需要训练自己的数据集可以参照coco数据集格式,将自己的数据集转化为coco数据集的格式,然后使用COCOPose来读取。

其中数据集中包含的文件路径如下:

`-- coco`-- annotations |-- person_keypoints_train2017.json |-- person_keypoints_val2017.json`-- images |-- train2017|-- val2017|-- test2017

In [ ]

# 解压示例数据集!unzip -o data/data9663/coco.zip -d data/data9663/

In [ ]

# 或者,解压完整coco数据集!cd data/data7122 && mkdir coco!unzip -o data/data7122/train2017.zip -d data/data7122/coco/images!unzip -o data/data7122/val2017.zip -d data/data7122/coco/images!unzip -o data/data7122/annotations_trainval2017.zip -d data/data7122/coco/

3.2 数据集定义

飞桨(PaddlePaddle)数据集加载方案是统一使用Dataset(数据集定义) + DataLoader(多进程数据集加载)。

首先我们先进行数据集的定义,数据集定义主要是实现一个新的Dataset类,继承父类paddle.io.Dataset,并实现父类中以下两个抽象方法,getitem__和__len:

In [6]

class COCOPose(Dataset):    def __init__(self, data_dir, mode='train', val_split=0.1, shuffle=False, debug=False):        class config:            # 17个关键点            NUM_JOINTS = 17            # 左右对称的关键点序号            FLIP_PAIRS = [[1, 2], [3, 4], [5, 6], [7, 8], [9, 10], [11, 12], [13, 14], [15, 16]]            SCALE_FACTOR = 0.3            ROT_FACTOR = 40            FLIP = True            SIGMA = 3            # 裁剪patch大小            IMAGE_SIZE = [288, 384]            # heatmap大小            HEATMAP_SIZE = [72, 96]            ASPECT_RATIO = IMAGE_SIZE[0] * 1.0 / IMAGE_SIZE[1]            MEAN = [0.485, 0.456, 0.406]            STD = [0.229, 0.224, 0.225]            PIXEL_STD = 200        self.cfg = config        self.cfg.DATAROOT = data_dir        self.cfg.DEBUG = debug        self.mode = mode        # 划分训练集和验证集合        if self.mode in ['train', 'val']:            file_name = os.path.join(data_dir, 'annotations', 'person_keypoints_' + self.mode + '2017.json')        else:            raise ValueError("The dataset '{}' is not supported".format(self.mode))        # 用cocotools提供的API读取标注的json文件        coco = COCO(file_name)        # Deal with class names        cats = [cat['name']                for cat in coco.loadCats(coco.getCatIds())]        classes = ['__background__'] + cats        print('=> classes: {}'.format(classes))        num_classes = len(classes)        _class_to_ind = dict(zip(classes, range(num_classes)))        _class_to_coco_ind = dict(zip(cats, coco.getCatIds()))        _coco_ind_to_class_ind = dict([(_class_to_coco_ind[cls],                                        _class_to_ind[cls])                                       for cls in classes[1:]])        # Load image file names        image_set_index = coco.getImgIds()        data_len = len(image_set_index)        if shuffle:            random_seed = 34            random.seed(random_seed)            random.shuffle(image_set_index)        num_images = len(image_set_index)        print('=> num_images: {}'.format(num_images))        gt_db = self._load_coco_keypoint_annotation(            image_set_index, coco, _coco_ind_to_class_ind)        self.gt_db = self._select_data(gt_db)    # 每次迭代时返回数据和对应的标签    def __getitem__(self, idx):        sample = self.gt_db[idx]        image_file = sample['image']        filename = sample['filename'] if 'filename' in sample else ''        joints = sample['joints_3d']        joints_vis = sample['joints_3d_vis']        c = sample['center']        s = sample['scale']        score = sample['score'] if 'score' in sample else 1        r = 0        # 读取图片        data_numpy = cv2.imread(            image_file, cv2.IMREAD_COLOR | cv2.IMREAD_IGNORE_ORIENTATION)                # 数据增广        if self.mode == 'train':            sf = self.cfg.SCALE_FACTOR            rf = self.cfg.ROT_FACTOR            # 随机裁剪            s = s * np.clip(np.random.randn() * sf + 1, 1 - sf, 1 + sf)            r = np.clip(np.random.randn() * rf, -rf * 2, rf * 2)                 if random.random() <= 0.6 else 0                        # 随机交换左右对称关键点坐标            if self.cfg.FLIP and random.random()  0.0:                joints[i, 0:2] = affine_transform(joints[i, 0:2], trans)        # 生成多通道heatmap        target, target_weight = self.generate_target(joints, joints_vis)                # 检查生成的图像        if self.cfg.DEBUG:            self.visualize(filename, data_numpy, input_img.copy(), joints, target)        # 归一化(减均值、除方差)        input_img = input_img.astype('float32').transpose((2, 0, 1)) / 255        input_img -= np.array(self.cfg.MEAN).reshape((3, 1, 1))        input_img /= np.array(self.cfg.STD).reshape((3, 1, 1))        if self.mode=='train' or self.mode=='val':            return input_img, target, target_weight        else:            return input_img, target, target_weight, c, s, score, image_file    # 返回整个数据集的总数    def __len__(self):        return len(self.gt_db)    # 以下函数是用来辅助读取数据    # 读取具体标注    def _load_coco_keypoint_annotation(self, image_set_index, coco, _coco_ind_to_class_ind):        """Ground truth bbox and keypoints.        """        print('generating coco gt_db...')        gt_db = []        for index in image_set_index:            im_ann = coco.loadImgs(index)[0]            width = im_ann['width']            height = im_ann['height']            annIds = coco.getAnnIds(imgIds=index, iscrowd=False)            objs = coco.loadAnns(annIds)            # Sanitize bboxes            valid_objs = []            for obj in objs:                x, y, w, h = obj['bbox']                x1 = np.max((0, x))                y1 = np.max((0, y))                x2 = np.min((width - 1, x1 + np.max((0, w - 1))))                y2 = np.min((height - 1, y1 + np.max((0, h - 1))))                if obj['area'] > 0 and x2 >= x1 and y2 >= y1:                    obj['clean_bbox'] = [x1, y1, x2 - x1, y2 - y1]                    valid_objs.append(obj)            objs = valid_objs                        rec = []            for obj in objs:                cls = _coco_ind_to_class_ind[obj['category_id']]                if cls != 1:                    continue                joints_3d = np.zeros((self.cfg.NUM_JOINTS, 3), dtype=np.float)                joints_3d_vis = np.zeros((self.cfg.NUM_JOINTS, 3), dtype=np.float)                if self.mode in ['train', 'val']:                    # Ignore objs without keypoints annotation                    if max(obj['keypoints']) == 0:                        continue                    for ipt in range(self.cfg.NUM_JOINTS):                        joints_3d[ipt, 0] = obj['keypoints'][ipt * 3 + 0]                        joints_3d[ipt, 1] = obj['keypoints'][ipt * 3 + 1]                        joints_3d[ipt, 2] = 0                        t_vis = obj['keypoints'][ipt * 3 + 2]                        if t_vis > 1:                            t_vis = 1                        joints_3d_vis[ipt, 0] = t_vis                        joints_3d_vis[ipt, 1] = t_vis                        joints_3d_vis[ipt, 2] = 0                center, scale = self._box2cs(obj['clean_bbox'][:4])                rec.append({                    'image': os.path.join(self.cfg.DATAROOT, 'images', self.mode + '2017', '%012d.jpg' % index),                    'center': center,                    'scale': scale,                    'joints_3d': joints_3d,                    'joints_3d_vis': joints_3d_vis,                    'filename': '%012d.jpg' % index,                    'imgnum': 0,                })            gt_db.extend(rec)        return gt_db    def _select_data(self, db):        db_selected = []        for rec in db:            num_vis = 0            joints_x = 0.0            joints_y = 0.0            for joint, joint_vis in zip(                    rec['joints_3d'], rec['joints_3d_vis']):                if joint_vis[0]  metric:                db_selected.append(rec)        print('=> num db: {}'.format(len(db)))        print('=> num selected db: {}'.format(len(db_selected)))        return db_selected    def _box2cs(self, box):        x, y, w, h = box[:4]        return self._xywh2cs(x, y, w, h)    def _xywh2cs(self, x, y, w, h):        center = np.zeros((2), dtype=np.float32)        center[0] = x + w * 0.5        center[1] = y + h * 0.5        if w > self.cfg.ASPECT_RATIO * h:            h = w * 1.0 / self.cfg.ASPECT_RATIO        elif w = HEATMAP_SIZE[0] or ul[1] >= HEATMAP_SIZE[1]                     or br[0] < 0 or br[1]  0.5:                target[joint_id][img_y[0]:img_y[1], img_x[0]:img_x[1]] =                     g[g_y[0]:g_y[1], g_x[0]:g_x[1]]        return target, target_weight    # 数据可视化    def visualize(self, filename, data_numpy, input, joints, target):        """        :param cfg: global configurations for dataset        :param filename: the name of image file        :param data_numpy: original numpy image data        :param input: input tensor [b, c, h, w]        :param joints: [num_joints, 3]        :param target: target tensor [b, c, h, w]        """        NUM_JOINTS = self.cfg.NUM_JOINTS        from matplotlib import pyplot as plt        plt.figure(figsize=(15, 7))        plt.subplot(1,2,1)        plt.imshow(cv2.cvtColor(data_numpy, cv2.COLOR_BGR2RGB))        plt.subplot(1,2,2)        plt.imshow(cv2.cvtColor(input, cv2.COLOR_BGR2RGB))        plt.scatter(joints[:, 0], joints[:, 1], marker='x', s=10, color='cyan')        plt.show()        plt.figure(figsize=(15, 13))        for i in range(NUM_JOINTS):            plt.subplot(5,4,i+1)            plt.imshow(target[i])        plt.show()

3.3 数据集抽样展示

实现好Dataset数据集后,我们来测试一下数据集是否符合预期。在COCOPose中预留了用于数据可视化的接口visualize,只需要在数据集定义中加入flagdebug=True,迭代数据集的时候会将图像和热力图打印出来。

In [ ]

debug_data = COCOPose('data/data9663/coco', mode='train', shuffle=True, debug=True)img, heatmaps, heatmaps_weight = debug_data[0]# 返回的数据分别是包含人物的patch,对应的热力图和是否包含人体关键点的去权重
loading annotations into memory...Done (t=0.02s)creating index...index created!=> classes: ['__background__', 'person']=> num_images: 500generating coco gt_db...=> num db: 430=> num selected db: 416
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/cbook/__init__.py:2349: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  if isinstance(obj, collections.Iterator):/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/cbook/__init__.py:2366: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  return list(data) if isinstance(data, collections.MappingView) else data
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/numpy/lib/type_check.py:546: DeprecationWarning: np.asscalar(a) is deprecated since NumPy v1.16, use a.item() instead  'a.item() instead', DeprecationWarning, stacklevel=1)

4.定义模型

这个案例使用到的Simple Baselines模型如下图所示。

Paddle2.0案例: 人体姿态关键点检测 - 创想鸟

Simple Baselines模型与常用与人体关键点检测的hourglass,cpn等相比,该模型的网络结构看起来很直观简洁。网络结构就是在ResNet后加上几层Deconvolution直接生成热力图。相比于其他模型,就是使用Deconvolution替换了上采样结构。

造点AI 造点AI

夸克 · 造点AI

造点AI 325 查看详情 造点AI

在案例人体姿态估计与追踪之关键点检测中,网络中完整定义了ResNet。

在这个案例中,我们尝试利用Paddle2.0提供的预定义paddle.vision.models.resnet和预训练模型,来构建我们的Simple Baselines模型。

In [ ]

# Paddle2.0 提供的resnet50模型如下from paddle.vision.models.resnet import resnet50res_net = resnet50()for prefix, layer in res_net.named_children():    print(prefix, layer)
conv1 bn1 relu maxpool layer1 layer2 layer3 layer4 avgpool fc 

ResNet在ImageNet分类任务中,图像分成1000类,所以在模型后接一个全连接层,预测出1000中类别各自的概率。我们只需要ResNet最后平均池化层avgpool和全连接层fc去掉,就得到了Simple Baselines模型的backbone部分。

下面我们定义Simple Baselines模型为PoseNet。

In [7]

class PoseNet(paddle.nn.Layer):    def __init__(self, layers=101, kps_num=16, pretrained=False, test_mode=False):        super(PoseNet, self).__init__()        self.k = kps_num        self.layers = layers        self.pretrained = pretrained        self.test_mode = test_mode        supported_layers = [50, 101, 152]        assert layers in supported_layers,             "supported layers are {} but input layer is {}".format(supported_layers, layers)        if layers == 50:            from paddle.vision.models.resnet import resnet50 as resnet        elif layers == 101:            from paddle.vision.models.resnet import resnet101 as resnet        elif layers == 152:            from paddle.vision.models.resnet import resnet152 as resnet        backbone = resnet(pretrained)                # backbone模型是去掉最末为池化和全连接层的ResNet模型        self.backbone = paddle.nn.Sequential(*(list(backbone.children())[:-2]))        # 加入生成热力图部分网络,包含3层反卷积和1层1*1卷积网络        BN_MOMENTUM = 0.9        self.upLayers = paddle.nn.Sequential(            paddle.nn.Conv2DTranspose(                in_channels=2048,                out_channels=256,                kernel_size=4,                padding=1,                stride=2,                weight_attr=paddle.ParamAttr(                    initializer=paddle.nn.initializer.Normal(0., 0.001)),                bias_attr=False),            paddle.nn.BatchNorm2D(num_features=256, momentum=BN_MOMENTUM),            paddle.nn.ReLU(),            paddle.nn.Conv2DTranspose(                in_channels=256,                out_channels=256,                kernel_size=4,                padding=1,                stride=2,                weight_attr=paddle.ParamAttr(                    initializer=paddle.nn.initializer.Normal(0., 0.001)),                bias_attr=False),            paddle.nn.BatchNorm2D(num_features=256, momentum=BN_MOMENTUM),            paddle.nn.ReLU(),            paddle.nn.Conv2DTranspose(                in_channels=256,                out_channels=256,                kernel_size=4,                padding=1,                stride=2,                weight_attr=paddle.ParamAttr(                    initializer=paddle.nn.initializer.Normal(0., 0.001)),                bias_attr=False),            paddle.nn.BatchNorm2D(num_features=256, momentum=BN_MOMENTUM),            paddle.nn.ReLU(),            paddle.nn.Conv2D(                in_channels=256,                out_channels=self.k,                kernel_size=1,                stride=1,                padding=0,                # bias_attr=False,                weight_attr=paddle.ParamAttr(                    initializer=paddle.nn.initializer.Normal(0., 0.001)))        )    def forward(self, input,):        conv = self.backbone(input)        out = self.upLayers(conv)        return out

4.1 模型可视化

调用飞桨提供的summary接口对组建好的模型进行可视化,方便进行模型结构和参数信息的查看和确认。

输入图像为长宽为288、384的彩色图像,输出17个通道长宽为72、96的热力图。

In [ ]

from paddle.static import InputSpecpaddle.disable_static()kp_dim = 17model = paddle.Model(PoseNet(layers=50, kps_num=kp_dim, test_mode=False))# IMAGE_SIZE = [288, 384]# HEATMAP_SIZE = [72, 96]model.summary((1, 3, 288, 384))
------------------------------------------------------------------------------   Layer (type)        Input Shape          Output Shape         Param #    ==============================================================================     Conv2D-1       [[1, 3, 288, 384]]   [1, 64, 144, 192]        9,408       BatchNorm2D-1    [[1, 64, 144, 192]]   [1, 64, 144, 192]         256            ReLU-1       [[1, 64, 144, 192]]   [1, 64, 144, 192]          0          MaxPool2D-1     [[1, 64, 144, 192]]    [1, 64, 72, 96]           0            Conv2D-3       [[1, 64, 72, 96]]     [1, 64, 72, 96]         4,096       BatchNorm2D-3     [[1, 64, 72, 96]]     [1, 64, 72, 96]          256            ReLU-2        [[1, 256, 72, 96]]    [1, 256, 72, 96]          0            Conv2D-4       [[1, 64, 72, 96]]     [1, 64, 72, 96]        36,864       BatchNorm2D-4     [[1, 64, 72, 96]]     [1, 64, 72, 96]          256           Conv2D-5       [[1, 64, 72, 96]]     [1, 256, 72, 96]       16,384       BatchNorm2D-5     [[1, 256, 72, 96]]    [1, 256, 72, 96]        1,024          Conv2D-2       [[1, 64, 72, 96]]     [1, 256, 72, 96]       16,384       BatchNorm2D-2     [[1, 256, 72, 96]]    [1, 256, 72, 96]        1,024     BottleneckBlock-1   [[1, 64, 72, 96]]     [1, 256, 72, 96]          0            Conv2D-6       [[1, 256, 72, 96]]    [1, 64, 72, 96]        16,384       BatchNorm2D-6     [[1, 64, 72, 96]]     [1, 64, 72, 96]          256            ReLU-3        [[1, 256, 72, 96]]    [1, 256, 72, 96]          0            Conv2D-7       [[1, 64, 72, 96]]     [1, 64, 72, 96]        36,864       BatchNorm2D-7     [[1, 64, 72, 96]]     [1, 64, 72, 96]          256           Conv2D-8       [[1, 64, 72, 96]]     [1, 256, 72, 96]       16,384       BatchNorm2D-8     [[1, 256, 72, 96]]    [1, 256, 72, 96]        1,024     BottleneckBlock-2   [[1, 256, 72, 96]]    [1, 256, 72, 96]          0            Conv2D-9       [[1, 256, 72, 96]]    [1, 64, 72, 96]        16,384       BatchNorm2D-9     [[1, 64, 72, 96]]     [1, 64, 72, 96]          256            ReLU-4        [[1, 256, 72, 96]]    [1, 256, 72, 96]          0           Conv2D-10       [[1, 64, 72, 96]]     [1, 64, 72, 96]        36,864       BatchNorm2D-10    [[1, 64, 72, 96]]     [1, 64, 72, 96]          256          Conv2D-11       [[1, 64, 72, 96]]     [1, 256, 72, 96]       16,384       BatchNorm2D-11    [[1, 256, 72, 96]]    [1, 256, 72, 96]        1,024     BottleneckBlock-3   [[1, 256, 72, 96]]    [1, 256, 72, 96]          0           Conv2D-13       [[1, 256, 72, 96]]    [1, 128, 72, 96]       32,768       BatchNorm2D-13    [[1, 128, 72, 96]]    [1, 128, 72, 96]         512            ReLU-5        [[1, 512, 36, 48]]    [1, 512, 36, 48]          0           Conv2D-14       [[1, 128, 72, 96]]    [1, 128, 36, 48]       147,456      BatchNorm2D-14    [[1, 128, 36, 48]]    [1, 128, 36, 48]         512          Conv2D-15       [[1, 128, 36, 48]]    [1, 512, 36, 48]       65,536       BatchNorm2D-15    [[1, 512, 36, 48]]    [1, 512, 36, 48]        2,048         Conv2D-12       [[1, 256, 72, 96]]    [1, 512, 36, 48]       131,072      BatchNorm2D-12    [[1, 512, 36, 48]]    [1, 512, 36, 48]        2,048     BottleneckBlock-4   [[1, 256, 72, 96]]    [1, 512, 36, 48]          0           Conv2D-16       [[1, 512, 36, 48]]    [1, 128, 36, 48]       65,536       BatchNorm2D-16    [[1, 128, 36, 48]]    [1, 128, 36, 48]         512            ReLU-6        [[1, 512, 36, 48]]    [1, 512, 36, 48]          0           Conv2D-17       [[1, 128, 36, 48]]    [1, 128, 36, 48]       147,456      BatchNorm2D-17    [[1, 128, 36, 48]]    [1, 128, 36, 48]         512          Conv2D-18       [[1, 128, 36, 48]]    [1, 512, 36, 48]       65,536       BatchNorm2D-18    [[1, 512, 36, 48]]    [1, 512, 36, 48]        2,048     BottleneckBlock-5   [[1, 512, 36, 48]]    [1, 512, 36, 48]          0           Conv2D-19       [[1, 512, 36, 48]]    [1, 128, 36, 48]       65,536       BatchNorm2D-19    [[1, 128, 36, 48]]    [1, 128, 36, 48]         512            ReLU-7        [[1, 512, 36, 48]]    [1, 512, 36, 48]          0           Conv2D-20       [[1, 128, 36, 48]]    [1, 128, 36, 48]       147,456      BatchNorm2D-20    [[1, 128, 36, 48]]    [1, 128, 36, 48]         512          Conv2D-21       [[1, 128, 36, 48]]    [1, 512, 36, 48]       65,536       BatchNorm2D-21    [[1, 512, 36, 48]]    [1, 512, 36, 48]        2,048     BottleneckBlock-6   [[1, 512, 36, 48]]    [1, 512, 36, 48]          0           Conv2D-22       [[1, 512, 36, 48]]    [1, 128, 36, 48]       65,536       BatchNorm2D-22    [[1, 128, 36, 48]]    [1, 128, 36, 48]         512            ReLU-8        [[1, 512, 36, 48]]    [1, 512, 36, 48]          0           Conv2D-23       [[1, 128, 36, 48]]    [1, 128, 36, 48]       147,456      BatchNorm2D-23    [[1, 128, 36, 48]]    [1, 128, 36, 48]         512          Conv2D-24       [[1, 128, 36, 48]]    [1, 512, 36, 48]       65,536       BatchNorm2D-24    [[1, 512, 36, 48]]    [1, 512, 36, 48]        2,048     BottleneckBlock-7   [[1, 512, 36, 48]]    [1, 512, 36, 48]          0           Conv2D-26       [[1, 512, 36, 48]]    [1, 256, 36, 48]       131,072      BatchNorm2D-26    [[1, 256, 36, 48]]    [1, 256, 36, 48]        1,024           ReLU-9       [[1, 1024, 18, 24]]   [1, 1024, 18, 24]          0           Conv2D-27       [[1, 256, 36, 48]]    [1, 256, 18, 24]       589,824      BatchNorm2D-27    [[1, 256, 18, 24]]    [1, 256, 18, 24]        1,024         Conv2D-28       [[1, 256, 18, 24]]   [1, 1024, 18, 24]       262,144      BatchNorm2D-28   [[1, 1024, 18, 24]]   [1, 1024, 18, 24]        4,096         Conv2D-25       [[1, 512, 36, 48]]   [1, 1024, 18, 24]       524,288      BatchNorm2D-25   [[1, 1024, 18, 24]]   [1, 1024, 18, 24]        4,096     BottleneckBlock-8   [[1, 512, 36, 48]]   [1, 1024, 18, 24]          0           Conv2D-29      [[1, 1024, 18, 24]]    [1, 256, 18, 24]       262,144      BatchNorm2D-29    [[1, 256, 18, 24]]    [1, 256, 18, 24]        1,024          ReLU-10       [[1, 1024, 18, 24]]   [1, 1024, 18, 24]          0           Conv2D-30       [[1, 256, 18, 24]]    [1, 256, 18, 24]       589,824      BatchNorm2D-30    [[1, 256, 18, 24]]    [1, 256, 18, 24]        1,024         Conv2D-31       [[1, 256, 18, 24]]   [1, 1024, 18, 24]       262,144      BatchNorm2D-31   [[1, 1024, 18, 24]]   [1, 1024, 18, 24]        4,096     BottleneckBlock-9  [[1, 1024, 18, 24]]   [1, 1024, 18, 24]          0           Conv2D-32      [[1, 1024, 18, 24]]    [1, 256, 18, 24]       262,144      BatchNorm2D-32    [[1, 256, 18, 24]]    [1, 256, 18, 24]        1,024          ReLU-11       [[1, 1024, 18, 24]]   [1, 1024, 18, 24]          0           Conv2D-33       [[1, 256, 18, 24]]    [1, 256, 18, 24]       589,824      BatchNorm2D-33    [[1, 256, 18, 24]]    [1, 256, 18, 24]        1,024         Conv2D-34       [[1, 256, 18, 24]]   [1, 1024, 18, 24]       262,144      BatchNorm2D-34   [[1, 1024, 18, 24]]   [1, 1024, 18, 24]        4,096     BottleneckBlock-10 [[1, 1024, 18, 24]]   [1, 1024, 18, 24]          0           Conv2D-35      [[1, 1024, 18, 24]]    [1, 256, 18, 24]       262,144      BatchNorm2D-35    [[1, 256, 18, 24]]    [1, 256, 18, 24]        1,024          ReLU-12       [[1, 1024, 18, 24]]   [1, 1024, 18, 24]          0           Conv2D-36       [[1, 256, 18, 24]]    [1, 256, 18, 24]       589,824      BatchNorm2D-36    [[1, 256, 18, 24]]    [1, 256, 18, 24]        1,024         Conv2D-37       [[1, 256, 18, 24]]   [1, 1024, 18, 24]       262,144      BatchNorm2D-37   [[1, 1024, 18, 24]]   [1, 1024, 18, 24]        4,096     BottleneckBlock-11 [[1, 1024, 18, 24]]   [1, 1024, 18, 24]          0           Conv2D-38      [[1, 1024, 18, 24]]    [1, 256, 18, 24]       262,144      BatchNorm2D-38    [[1, 256, 18, 24]]    [1, 256, 18, 24]        1,024          ReLU-13       [[1, 1024, 18, 24]]   [1, 1024, 18, 24]          0           Conv2D-39       [[1, 256, 18, 24]]    [1, 256, 18, 24]       589,824      BatchNorm2D-39    [[1, 256, 18, 24]]    [1, 256, 18, 24]        1,024         Conv2D-40       [[1, 256, 18, 24]]   [1, 1024, 18, 24]       262,144      BatchNorm2D-40   [[1, 1024, 18, 24]]   [1, 1024, 18, 24]        4,096     BottleneckBlock-12 [[1, 1024, 18, 24]]   [1, 1024, 18, 24]          0           Conv2D-41      [[1, 1024, 18, 24]]    [1, 256, 18, 24]       262,144      BatchNorm2D-41    [[1, 256, 18, 24]]    [1, 256, 18, 24]        1,024          ReLU-14       [[1, 1024, 18, 24]]   [1, 1024, 18, 24]          0           Conv2D-42       [[1, 256, 18, 24]]    [1, 256, 18, 24]       589,824      BatchNorm2D-42    [[1, 256, 18, 24]]    [1, 256, 18, 24]        1,024         Conv2D-43       [[1, 256, 18, 24]]   [1, 1024, 18, 24]       262,144      BatchNorm2D-43   [[1, 1024, 18, 24]]   [1, 1024, 18, 24]        4,096     BottleneckBlock-13 [[1, 1024, 18, 24]]   [1, 1024, 18, 24]          0           Conv2D-45      [[1, 1024, 18, 24]]    [1, 512, 18, 24]       524,288      BatchNorm2D-45    [[1, 512, 18, 24]]    [1, 512, 18, 24]        2,048          ReLU-15        [[1, 2048, 9, 12]]    [1, 2048, 9, 12]          0           Conv2D-46       [[1, 512, 18, 24]]    [1, 512, 9, 12]       2,359,296     BatchNorm2D-46    [[1, 512, 9, 12]]     [1, 512, 9, 12]         2,048         Conv2D-47       [[1, 512, 9, 12]]     [1, 2048, 9, 12]      1,048,576     BatchNorm2D-47    [[1, 2048, 9, 12]]    [1, 2048, 9, 12]        8,192         Conv2D-44      [[1, 1024, 18, 24]]    [1, 2048, 9, 12]      2,097,152     BatchNorm2D-44    [[1, 2048, 9, 12]]    [1, 2048, 9, 12]        8,192     BottleneckBlock-14 [[1, 1024, 18, 24]]    [1, 2048, 9, 12]          0           Conv2D-48       [[1, 2048, 9, 12]]    [1, 512, 9, 12]       1,048,576     BatchNorm2D-48    [[1, 512, 9, 12]]     [1, 512, 9, 12]         2,048          ReLU-16        [[1, 2048, 9, 12]]    [1, 2048, 9, 12]          0           Conv2D-49       [[1, 512, 9, 12]]     [1, 512, 9, 12]       2,359,296     BatchNorm2D-49    [[1, 512, 9, 12]]     [1, 512, 9, 12]         2,048         Conv2D-50       [[1, 512, 9, 12]]     [1, 2048, 9, 12]      1,048,576     BatchNorm2D-50    [[1, 2048, 9, 12]]    [1, 2048, 9, 12]        8,192     BottleneckBlock-15  [[1, 2048, 9, 12]]    [1, 2048, 9, 12]          0           Conv2D-51       [[1, 2048, 9, 12]]    [1, 512, 9, 12]       1,048,576     BatchNorm2D-51    [[1, 512, 9, 12]]     [1, 512, 9, 12]         2,048          ReLU-17        [[1, 2048, 9, 12]]    [1, 2048, 9, 12]          0           Conv2D-52       [[1, 512, 9, 12]]     [1, 512, 9, 12]       2,359,296     BatchNorm2D-52    [[1, 512, 9, 12]]     [1, 512, 9, 12]         2,048         Conv2D-53       [[1, 512, 9, 12]]     [1, 2048, 9, 12]      1,048,576     BatchNorm2D-53    [[1, 2048, 9, 12]]    [1, 2048, 9, 12]        8,192     BottleneckBlock-16  [[1, 2048, 9, 12]]    [1, 2048, 9, 12]          0       Conv2DTranspose-1   [[1, 2048, 9, 12]]    [1, 256, 18, 24]      8,388,608     BatchNorm2D-54    [[1, 256, 18, 24]]    [1, 256, 18, 24]        1,024          ReLU-18        [[1, 256, 18, 24]]    [1, 256, 18, 24]          0       Conv2DTranspose-2   [[1, 256, 18, 24]]    [1, 256, 36, 48]      1,048,576     BatchNorm2D-55    [[1, 256, 36, 48]]    [1, 256, 36, 48]        1,024          ReLU-19        [[1, 256, 36, 48]]    [1, 256, 36, 48]          0       Conv2DTranspose-3   [[1, 256, 36, 48]]    [1, 256, 72, 96]      1,048,576     BatchNorm2D-56    [[1, 256, 72, 96]]    [1, 256, 72, 96]        1,024          ReLU-20        [[1, 256, 72, 96]]    [1, 256, 72, 96]          0           Conv2D-54       [[1, 256, 72, 96]]    [1, 17, 72, 96]         4,369     ==============================================================================Total params: 34,054,353Trainable params: 33,945,041Non-trainable params: 109,312------------------------------------------------------------------------------Input size (MB): 1.27Forward/backward pass size (MB): 630.33Params size (MB): 129.91Estimated Total Size (MB): 761.51------------------------------------------------------------------------------
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/distributed/parallel.py:119: UserWarning: Currently not a parallel execution environment, `paddle.distributed.init_parallel_env` will not do anything.  "Currently not a parallel execution environment, `paddle.distributed.init_parallel_env` will not do anything."
{'total_params': 34054353, 'trainable_params': 33945041}

5. 训练模型

在这个任务是热力图进行回归,计算每个通道生成的热力图与生成的热力图之间的差异。我们自定义HMLoss来做计算,飞桨2.0中,在nn下将损失函数封装成可调用类。我们这里使用paddle.Model相关的API直接进行训练,只需要定义好数据集、网络模型和损失函数即可。

5.1 定义损失函数

In [ ]

class HMLoss(paddle.nn.Layer):    def __init__(self, kps_num):        super(HMLoss, self).__init__()        self.k = kps_num    def forward(self, heatmap, target, target_weight):        _, c, h, w = heatmap.shape        x = heatmap.reshape((-1, self.k, h*w))        y = target.reshape((-1, self.k, h*w))        w = target_weight.reshape((-1, self.k))        x = x.split(num_or_sections=self.k, axis=1)        y = y.split(num_or_sections=self.k, axis=1)        w = w.split(num_or_sections=self.k, axis=1)                # 计算预测热力图的目标热力图的均方误差        _list = []        for idx in range(self.k):            _tmp = paddle.scale(x=x[idx] - y[idx], scale=1.)            _tmp = _tmp * _tmp            _tmp = paddle.mean(_tmp, axis=2)            _list.append(_tmp * w[idx])        _loss = paddle.concat(_list, axis=0)        _loss = paddle.mean(_loss)        return 0.5 * _loss

5.1 启动模型训练

使用模型代码进行Model实例生成,使用prepare接口定义优化器、损失函数和评价指标等信息,用于后续训练使用。在所有初步配置完成后,调用fit接口开启训练执行过程,调用fit时只需要将前面定义好的训练数据集、测试数据集、训练轮次(Epoch)和批次大小(batch_size)配置好即可。

In [ ]

# 定义训练用的超参数parser = argparse.ArgumentParser(description=__doc__)parser.add_argument('--batch_size', type=int, default=128, help="Minibatch size totally.")parser.add_argument('--num_epochs', type=int, default=140, help="Number of epochs.")parser.add_argument('--model_save_dir', type=str, default="checkpoint", help="Model save directory")# pretrained:使用paddle2.0提供的ImageNet预训练的ResNet模型parser.add_argument('--pretrained', type=bool, default=True, help="Whether to use pretrained ResNet model.")parser.add_argument('--lr', type=float, default=0.001, help="Set learning rate.")parser.add_argument('--lr_strategy', type=str, default="piecewise_decay", help="Set the learning rate decay strategy.")args = parser.parse_args([])

In [ ]

from visualdl import LogReader, LogWriter# 配置visualdlwrite = LogWriter(logdir='logdir')#iters 初始化为0iters = 0class Callbk(paddle.callbacks.Callback):    def __init__(self, write, iters=0):        self.write = write        self.iters = iters    def on_train_batch_end(self, step, logs):        self.iters += 1        #记录loss        self.write.add_scalar(tag="loss",step=self.iters,value=logs['loss'][0])        #记录 accuracy        # self.write.add_scalar(tag="acc",step=self.iters,value=logs['acc'])        m = logs['SaveOutput'][0].sum(0).reshape([96,72,1])        self.write.add_image(tag="output Heatmaps",step=self.iters, img=(m-m.min())/(m.max()-m.min())*255)# 利用Mertic接口记录预测的Output heatmapclass SaveOutput(paddle.metric.Metric):    def __init__(self, name='SaveOutput', ):        super(SaveOutput, self).__init__()        self._name = name    def update(self, preds, target, target_weight):        self.preds = preds    def accumulate(self):        return self.preds    def name(self):        return self._name    def reset(self):        pass

In [ ]

kp_dim = 17# IMAGE_SIZE = [288, 384]# HEATMAP_SIZE = [72, 96]# 调用COCOPose定义数据集# 使用示例数据集# train_data = COCOPose('data/data9663/coco', mode='train', shuffle=True)# 使用完整COCO数据集train_data = COCOPose('data/data7122/coco', mode='train', shuffle=True)val_data = COCOPose('data/data7122/coco', mode='val')# 定义模型net = PoseNet(layers=50, kps_num=kp_dim, pretrained=args.pretrained, test_mode=False)model = paddle.Model(net)# 选择优化策略if args.lr_strategy=='piecewise_decay':    num_train_img = train_data.__len__()    batch_size = args.batch_size    step = int(num_train_img / batch_size + 1)    bd = [0.6, 0.85]    bd = [int(args.num_epochs * e * step) for e in bd]    lr_drop_ratio = 0.1    base_lr = args.lr    lr = [base_lr * (lr_drop_ratio**i) for i in range(len(bd) + 1)]    scheduler = paddle.optimizer.lr.PiecewiseDecay(boundaries=bd, values=lr, verbose=False)    optim = paddle.optimizer.Adam(learning_rate=scheduler,                                    parameters=model.parameters())else:    optim = paddle.optimizer.Momentum(learning_rate=args.lr,        momentum=0.9,        weight_decay=paddle.regularizer.L2Decay(0.0005))# 准备模型的优化策略和损失函数,用自定义的Metric来保存图像model.prepare(optimizer=optim, loss=HMLoss(kps_num=kp_dim), metrics=SaveOutput())# 使用示例数据集进行10个epoch训练# model.fit(train_data, batch_size=args.batch_size, epochs=100, callbacks=Callbk(write=write, iters=iters))# 使用完整COCO数据集训练model.fit(train_data, val_data, batch_size=args.batch_size, epochs=args.num_epochs, eval_freq=1,            log_freq=1, save_dir=args.model_save_dir, save_freq=5, shuffle=True, num_workers=0,            callbacks=Callbk(write=write, iters=iters))model.save('checkpoint/test', training=True)  # save for trainingmodel.save('inference_model', training=False)  # save for inference

启动VisualDL,我们可以看到LogWritter记录下了训练过程中损失函数的变化曲线。这是在完整COCO数据集上训练一个epoch的曲线变化。

Paddle2.0案例: 人体姿态关键点检测 - 创想鸟

可以在样本数据-图像标签页中看到存储的图像数据,这里保存了每个batch第一个样本输出热力图多通道之和,可以看到训练完一个epoch后,热力图收敛的趋势已经比较明显。

Paddle2.0案例: 人体姿态关键点检测 - 创想鸟

6. 模型预测

由于训练完整COCO数据集140个epoch需要花费较多的时间和算力,这里提供几个训练好的模型来进行对test文件夹中测试图片进行预测,体验不同训练程度的预测效果。

注:由于练完整COCO数据集没有包含类被标签,对于没有人物的图像做预测没有意义。

In [9]

# 这里定义一个用于读取test文件夹的数据读取接口class COCOPose_test(Dataset):    def __init__(self, data_dir,):        class config:            # 裁剪patch大小            IMAGE_SIZE = [288, 384]            # heatmap大小            ASPECT_RATIO = IMAGE_SIZE[0] * 1.0 / IMAGE_SIZE[1]            MEAN = [0.485, 0.456, 0.406]            STD = [0.229, 0.224, 0.225]        self.cfg = config        self.cfg.DATAROOT = data_dir                self.file_list = os.listdir(data_dir)    def __getitem__(self, idx):        filename = self.file_list[idx]        image_file = os.path.join(self.cfg.DATAROOT, filename)                file_id  = int(filename.split('.')[0])        input = cv2.imread(                image_file, cv2.IMREAD_COLOR | cv2.IMREAD_IGNORE_ORIENTATION)        input = cv2.resize(input, (int(self.cfg.IMAGE_SIZE[0]), int(self.cfg.IMAGE_SIZE[1])))        # Normalization        input = input.astype('float32').transpose((2, 0, 1)) / 255        input -= np.array(self.cfg.MEAN).reshape((3, 1, 1))        input /= np.array(self.cfg.STD).reshape((3, 1, 1))        return input, file_id            def __len__(self):        return len(self.file_list)        test_data = COCOPose_test(data_dir='test')

6.1 使用训练1个epoch模型预测

In [35]

net = PoseNet(layers=50, kps_num=17, pretrained=False, test_mode=False) net_pd = paddle.load('output/0.pdparams')net.set_state_dict(net_pd)model = paddle.Model(net)model.prepare()result = model.predict(test_data, batch_size=1)
Predict begin...step 6/6 [==============================] - 34ms/step        Predict samples: 6

查看预测结果的

In [36]

id = 2image, img_id = test_data[id]plt.imshow(cv2.cvtColor(image.transpose(1,2,0), cv2.COLOR_BGR2RGB))plt.figure(figsize=(15, 13))for i in range(17):    plt.subplot(5,4,i+1)    plt.imshow(result[0][id][0][i])
Clipping input data to the valid range for imshow with RGB data ([0..1] for floats or [0..255] for integers).

6.2 使用用完整COCO数据集训练好的模型预测

基于旧版Paddle完成的复现paddle,提供了静态图下的完整COCO预训练模型pose-resnet50-coco-384×288.zip。

In [15]

!tar xf pose-resnet50-coco-384x288.tar.gz -C pretrained

旧版的Paddle静态图模型与新版的命名规则不一样,需要将文件名进行映射。

In [16]

net = PoseNet(layers=50, kps_num=17, pretrained=False, test_mode=False)net_sd = net.state_dict()# 读取旧版的模型load_layer_state_dict = paddle.load('pretrained/pose-resnet50-coco-384x288')pretrain_sd = sorted(list(load_layer_state_dict.keys()))

In [17]

model_sd = sorted(list(net_sd.keys()))j = 0for i in range(len(pretrain_sd)):    # print(i)    if 'bias' in model_sd[i]:        if j <= 55:            name_bias = 'batch_norm_'+str(j)+'.b_0'            print(model_sd[i], net_sd[model_sd[i]].shape , load_layer_state_dict[name_bias].shape,)            net_sd[model_sd[i]] =                 paddle.to_tensor(load_layer_state_dict[name_bias],                 place=net_sd[model_sd[i]].place,                stop_gradient=net_sd[model_sd[i]].stop_gradient)        else:            print('??.b_0', model_sd[i], net_sd[model_sd[i]].shape )            net_sd['upLayers.9.bias'] =                 paddle.to_tensor(load_layer_state_dict['conv2d_53.b_0'],                 place=net_sd[model_sd[i]].place,                stop_gradient=net_sd[model_sd[i]].stop_gradient)    if '_mean' in model_sd[i]:        if j <= 55:            name_mean = 'batch_norm_'+str(j)+'.w_1'            print(model_sd[i], net_sd[model_sd[i]].shape , load_layer_state_dict[name_mean].shape,)            net_sd[model_sd[i]] =             paddle.to_tensor(load_layer_state_dict[name_mean],             place=net_sd[model_sd[i]].place,            stop_gradient=net_sd[model_sd[i]].stop_gradient)            else:            print('??.w_1', model_sd[i], net_sd[model_sd[i]].shape )    if '_variance' in model_sd[i]:        if j <= 55:            name_variance = 'batch_norm_'+str(j)+'.w_2'            print(model_sd[i], net_sd[model_sd[i]].shape , load_layer_state_dict[name_variance].shape,)            net_sd[model_sd[i]] =             paddle.to_tensor(load_layer_state_dict[name_variance],             place=net_sd[model_sd[i]].place,            stop_gradient=net_sd[model_sd[i]].stop_gradient)            else:            print('??.w_2', model_sd[i], net_sd[model_sd[i]].shape )        # j += 1    if ('backbone.1' in model_sd[i] or 'downsample.1' in model_sd[i] or     'upLayers.1' in model_sd[i] or 'upLayers.4' in model_sd[i] or      'upLayers.7' in model_sd[i] or 'upLayers.9' in model_sd[i] or 'bn' in model_sd[i])     and 'weight' in model_sd[i]:        if j 1]for i in range(len(name_list)):    name = name_list[i]    if len(net_sd[name].shape)>1:        if j<53:            name_layer = 'conv2d_'+str(j)+'.w_0'            print(i, j, name, net_sd[name].shape)            print(i, j, name_layer, load_layer_state_dict[name_layer].shape)            net_sd[name] =                 paddle.to_tensor(load_layer_state_dict[name_layer],                 place=net_sd[name].place,                stop_gradient=net_sd[name].stop_gradient)            elif 53<=j<56:            name_layer = 'conv2d_transpose_'+str(j-53)+'.w_0'            print(i, j, name, net_sd[name].shape)            print(i, j, name_layer, load_layer_state_dict[name_layer].shape)            net_sd[name] =                 paddle.to_tensor(load_layer_state_dict[name_layer],                 place=net_sd[name].place,                stop_gradient=net_sd[name].stop_gradient)            elif j==56:            name_layer = 'conv2d_53.w_0'            print(i, j, name, net_sd[name].shape)            print(i, j, name_layer, load_layer_state_dict[name_layer].shape)             net_sd[name] =                 paddle.to_tensor(load_layer_state_dict[name_layer],                 place=net_sd[name].place,                stop_gradient=net_sd[name].stop_gradient)            j+=1

In [18]

# 加载模型net.set_state_dict(net_sd)

In [19]

# 进行预测model = paddle.Model(net)model.prepare()result = model.predict(test_data, batch_size=1)
Predict begin...step 6/6 [==============================] - 41ms/step        Predict samples: 6
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/distributed/parallel.py:119: UserWarning: Currently not a parallel execution environment, `paddle.distributed.init_parallel_env` will not do anything.  "Currently not a parallel execution environment, `paddle.distributed.init_parallel_env` will not do anything."

In [31]

# 改变id查看输出的结果id = 2image, img_id = test_data[id]plt.imshow(cv2.cvtColor(image.transpose(1,2,0), cv2.COLOR_BGR2RGB))plt.figure(figsize=(15, 13))for i in range(17):    plt.subplot(5,4,i+1)    plt.imshow(result[0][id][0][i])
Clipping input data to the valid range for imshow with RGB data ([0..1] for floats or [0..255] for integers)./opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/numpy/lib/type_check.py:546: DeprecationWarning: np.asscalar(a) is deprecated since NumPy v1.16, use a.item() instead  'a.item() instead', DeprecationWarning, stacklevel=1)

代码解释

通过对比两个实验结果可以看到,使用ImageNet预训练、经过一个完整的COCO训练集一个epoch的模型已经开始收敛,热力图已经汇聚成点的形状。 而使用官方提供的训练好的模型,性能提升更为明显。

以上就是Paddle2.0案例: 人体姿态关键点检测的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/317148.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月5日 08:16:18
下一篇 2025年11月5日 08:19:49

相关推荐

  • 从交易量看平台实力:币圈头部交易所评测

    在数字资产领域,交易所是连接用户与市场的核心枢纽,其重要性不言而喻。衡量一个交易平台综合实力的关键指标,往往体现在其用户活跃度和交易量上。庞大的用户基数和高频的交易活动,不仅代表了市场的深度与流动性,更是平台安全信誉、产品创新能力和生态系统建设成果的直接体现。一个充满活力的交易环境能够为用户提供更优…

    2025年12月8日 好文分享
    000
  • 2025年交易量最高的十大数字资产平台 比特币、SOL、BNB等主流币种流动性分析

    数字资产交易平台作为连接投资者与加密世界的关键桥梁,其重要性不言而喻。衡量一个平台综合实力的核心指标之一便是交易量,它直接反映了平台的市场活跃度、用户基数以及资产流动性。高交易量意味着更优的交易深度和更小的买卖价差,能够为用户提供更为流畅和高效的交易体验。当前市场格局下,各大平台通过优化产品、拓展生…

    2025年12月8日
    000
  • 2025年加密货币交易所市场份额排名 交易量增长最快的平台有哪些?

    进入2025年,全球%ignore_a_1%市场的格局经历了深刻的演变与重塑。市场的竞争早已不局限于单一的交易深度或上币速度,而是转向了一场关于生态系统完整性、技术创新、用户资产安全以及全球合规化布局的全面较量。在这一背景下,各大交易平台的市场份额排名清晰地反映了其综合实力的消长。能够稳居前列的平台…

    2025年12月8日
    000
  • 什么是跨链技术?深入解析跨链桥的实现方式

    区块链技术独立演进,各自形成独立的生态系统。这些系统在设计理念、共识机制、智能合约语言等方面存在差异,导致它们之间难以直接进行信息交互或价值转移。这种隔离状态阻碍了不同链上资产的流通和去中心化应用的互操作性,形成了所谓的“孤岛效应”。为了打破这种壁垒,跨链技术应运而生。 跨链技术的目标是实现不同区块…

    2025年12月8日
    000
  • 加密货币、市场趋势、立即投资:驾驭2025年新格局

    探索2025年最具潜力的加密货币、市场动向与投资思路。掌握哪些山寨币具备上升空间,以及如何在波动频繁的加密领域做出理性判断。 加密世界瞬息万变!让我们穿透表象,聚焦2025年最有前景的数字资产,解读最新行业动态,并探讨高效的投资方式。 当前值得关注的主流加密货币 抛开喧嚣,重视技术实力、扩展能力及实…

    2025年12月8日
    000
  • ROM:黄金时代 Web3 MMORPG 开启预注册,Redlab 与 WEMADE 联合推出

    redlab games 联合 wemade 正式启动 web3 mmorpg《rom: golden age》预注册活动,该游戏引入了 rpg tokenomics 3.0 经济体系。抢先注册即可参与早期体验并赢取丰厚奖励! 《ROM: Golden Age》Web3 MMORPG 全球预注册正式…

    2025年12月8日
    000
  • 狗狗币的模因动力:价格预测与加密货币现实检验

    狗狗币的看涨信号再度亮起,但模因动能是否足以推动其继续上行?我们深入分析价格走势,并探讨在当前加密市场中,仅靠热度是否还能支撑其上涨。 狗狗币的模因动力:价格预测与现实考量 由网络模因而生的加密货币——狗狗币(Dogecoin)再次引发热议,技术面出现积极信号。然而,单靠模因驱动是否能维持长期上升趋…

    2025年12月8日
    000
  • AI驱动的模因币:小佩佩会成为下一个狗狗币吗?

    模因币领域风云再起,柴犬币(dogecoin)似乎正在失去往日的光环,而新的竞争者如ai驱动的“小佩佩”(little pepe)、pi网络的ai应用开发平台以及solana上的useless代币正崭露头角,引领新一轮热潮。 当前,模因币市场依旧火热,但格局正在悄然改变。尽管DOGE仍在约0.16美…

    2025年12月8日
    000
  • 在迷因币爆发前在哪里找到它们

    要找到下一个暴涨的迷因币,需结合实时数据工具与社群动态分析,并严格控制风险。1.使用DEXTools、DexScreener等DEX聚合器,追踪新交易对和流动性池变化;2.在Twitter上关注Alpha Hunter账号并搜索关键词,捕捉舆论热点;3.加入Telegram和Discord社群,获取…

    2025年12月8日
    000
  • 2025年山寨币能否再度起飞?深度解析市场机遇与风险

    2025年山寨币市场有望迎来机遇,但也伴随显著风险。1. 宏观经济环境转变可能释放流动性并推动资金流入山寨币;2. 技术与叙事创新包括AI+Crypto、真实世界资产(RWA)、DePIN和GameFi的发展将吸引增量资金;3. 更成熟的基础设施如以太坊Layer2及用户友好型交易所提升交易效率。然…

    好文分享 2025年12月8日
    000
  • 哪些加密货币具有 100 倍增长潜力

    本文聚焦数字资产领域具备增长潜力的前沿项目,从四大赛道分析其创新价值与核心看点。一、新一代模块化公链与Layer2:1.技术创新;2.生态系统发展;3.用户体验优化。二、AI与区块链融合:1.解决AI痛点;2.去中心化算力网络;3.合理代币经济模型。三、真实世界资产代币化(RWA):1.资产质量保障…

    2025年12月8日
    000
  • 2025年哪种类型的加密货币是最佳选择

    2025年值得关注的加密资产包括五类。第一类是市场基石型资产比特币(BTC),作为数字黄金,其去中心化和稀缺性使其成为长期投资的核心;第二类是智能平台型资产以太坊(ETH),凭借智能合约功能支撑DeFi、NFT等生态,技术升级巩固其领导地位;第三类是高性能挑战者Solana(SOL),以高交易速度和…

    2025年12月8日
    000
  • 7月最新上市币安的加密货币有哪些

    7月份币安上线了三个备受关注的新项目。1. ZkSync(ZK)是以太坊Layer 2扩容解决方案,采用ZK-Rollup技术实现高吞吐量和低成本交易,提升以太坊可扩展性与用户体验;2. Lista(LISTA)是结合流动性质押与去中心化稳定资产的DeFi协议,用户可通过质押资产获取收益并借出稳定币…

    2025年12月8日
    000
  • bnb是什么币种 bnb是什么

    bnb,全称为binance coin,最初是币安(binance)交易所发行的平台代币。随着币安生态系统的发展,bnb已经演变为bnb chain(包括bnb智能链和bnb信标链)的原生功能型代币,其用途远超最初的设想。 主要用途包括: 交易手续费折扣:在币安交易所上,使用BNB支付交易手续费可以…

    2025年12月8日
    000
  • 哪些加密货币可能在2025年爆发

    2025年值得关注的潜力加密资产包括比特币、以太坊、Solana、Chainlink及AI与区块链结合项目。1. 比特币凭借其去中心化和稀缺性,叠加2024年减半影响,2025年或迎来新一轮增长;2. 以太坊作为智能合约平台领导者,通过PoS升级和Proto-Danksharding扩展方案,持续提…

    2025年12月8日
    000
  • 2025年哪些加密货币可能让您致富

    2025年最具潜力的加密资产包括比特币、以太坊、索拉纳、第二层扩展解决方案及人工智能与加密结合项目。1. 比特币因其“数字黄金”属性及减半事件后的升值周期,被视为避险资产;2. 以太坊凭借智能合约平台和持续技术升级,支撑DeFi、NFT等生态发展;3. 索拉纳因高交易速度和低成本吸引开发者,生态快速…

    2025年12月8日
    000
  • 山寨币市场怎么玩

    山寨币市场是一个充满机遇与风险的独立加密资产生态,其核心在于理解多样性、深入研究项目、洞察市场动态并制定严格的风险管理策略。首先,山寨币分为公链币、DeFi代币、GameFi与元宇宙代币以及模因币等类别,每种类型具有不同功能和价值基础。其次,进行独立尽职调查应包括阅读白皮书、评估团队背景、分析代币经…

    2025年12月8日
    000
  • 以太坊免费下载安装 以太坊官网版

    获取以太坊(ETH)的主流平台包括币安、欧易、火币和Gate.io。1. 币安提供多种支付方式购买ETH,并具备强大的生态系统支持;2. 欧易以衍生品交易和内置Web3账户著称,适合探索DeFi和NFT;3. 火币运营稳定,界面简洁,适合寻求可靠交易环境的用户;4. Gate.io币种丰富,适合希望…

    2025年12月8日
    000
  • Webus国际、Ripple策略控股与XRP支付:纽约瞬间看交易

    webus international 与 ripple strategy holdings 达成潜在 1 亿美元合作,加速 xrp 支付及区块链忠诚度工具布局:深度解析 Webus International、Ripple Strategy Holdings 与 XRP 支付:这项合作的简要剖析 …

    2025年12月8日
    000
  • 迷因币还能出现万倍币吗 曾经出现的万倍币有哪些

    迷因币的万倍神话由社区驱动、叙事力量和低市值共同铸就。1.社区驱动是核心,通过社交媒体传播形成声浪,实现低成本高效营销;2.叙事力量提供文化粘性,以简单有趣的故事引发情感共鸣,赋予代币身份认同;3.极低初始市值构成数学基础,少量资金即可引发价格剧烈波动,便于早期参与者获取高回报;4.KOL“喊单”效…

    2025年12月8日
    000

发表回复

登录后才能评论
关注微信