本教程介绍如何用PaddleDetection的YOLOv3模型实现摔倒检测。步骤包括解压VOC格式数据集、安装相关包、划分数据集,修改配置文件后训练模型,还涉及模型评估、预测及可视化,最后说明Paddle Inference、Serving、Lite等部署方式,mAP达80.28%,可用于监控场景。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

基于YOLOv3模型实现摔倒检测
教程目的: 通过PaddleDetection API熟悉经典的目标检测框架,为下一步自己手写实现目标检测网络打基础
教程内容: 以PaddleDetection API中的特色模型为例,介绍网络结构,以及如何使用此框架训练自己的数据集
数据准备: 本教程基于易华录开发者社区的人体摔倒姿态检测数据实现了摔倒检测模型的训练。
PaddelDetection: 为方便读者体验,存放在PaddleDetection。
其他说明: 本教程所有命令均在Notebook中执行。
本次项目实验步骤以及实验结果
本次实验通过使用PaddleDetection2.0中的YOLOv3(主干网络为mobilenetv3的轻量化模型),通过几行代码就能实现跌倒的目标检测,后期可部署用于监控医院、疗养院甚至家里等。
按以下几个步骤来介绍项目实现流程。
解压自定义的数据集;
下载安装PaddleDetection包;
自定义数据集划分;
选择模型(本次选择YOLO-v3)进行训练:训练的配置文件说明;
效果可视化:使用训练好的模型进行预测,同时对结果进行可视化;
模型评估和预测:评估模型效果;
预测结果
PaddleDetection 预测部署
检测效果如下图所示:
数据和环境准备
数据解压
将把完成好标注的跌倒图片(VOC格式数据集)进行解压。
In [ ]
!unzip -oq /home/aistudio/data/data115779/fall.zip -d /home/aistudio/work/
准备环境
目前代码的版本是release/2.0,需要使用PaddlePaddle2.0.2版本。
In [ ]
! git clone https://gitee.com/paddlepaddle/PaddleDetection.git
安装PaddleDetection依赖库:
In [17]
%cd /home/aistudio/PaddleDetection/!pip install -r requirements.txt
自定义数据集的划分
本案例原始数据存在标注错误的情况,如标注数据中图像长宽为0,本案例将这部分数据剔除掉,不参与训练和测试。
将数据集按照9:1的比例进行划分,并生成train.txt和val.txt进行训练
In [ ]
import randomimport osimport xml.etree.ElementTree as ET#生成train.txt和val.txtrandom.seed(2020)data_root_dir = '/home/aistudio/work/fall'path_list = list()labels = []#['down','person']#设置你想检测的类别print("数据总数:",len(os.listdir(data_root_dir))/2)for img in os.listdir(data_root_dir): if not img.endswith(".jpg"): continue img_path = os.path.join(data_root_dir,img) xml_path = os.path.join(data_root_dir,img.replace('jpg', 'xml')) # 读取xml获取标签 tree = ET.parse(xml_path) root = tree.getroot() # 有些数据标注有问题,如图像大小为空0,过滤掉 size=root.find('size') width = float(size.find('width').text) height = float(size.find('height').text) if width==0 or height==0: continue for obj in root.iter('object'): difficult = int(obj.find('difficult').text) cls_name = obj.find('name').text.strip().lower() if cls_name not in labels: labels.append(cls_name) path_list.append((img_path, xml_path))print("有效数据个数:",len(path_list))random.shuffle(path_list)ratio = 0.9train_f = open('/home/aistudio/work/train.txt','w') #生成训练文件val_f = open('/home/aistudio/work/val.txt' ,'w')#生成验证文件for i ,content in enumerate(path_list): img, xml = content text = img + ' ' + xml + 'n' if i < len(path_list) * ratio: train_f.write(text) else: val_f.write(text)train_f.close()val_f.close()#生成标签文档print(labels)with open('/home/aistudio/work/label_list.txt', 'w') as f: for text in labels: f.write(text+'n')
数据总数: 7782.0有效数据个数: 7713['down', 'person', '10+', 'dog']
模型训练
用户在选择好模型后,只需要改动对应的配置文件后,只需要运行train.py文件,即可实现训练。
本项目中,使用YOLOv3模型里的yolov3_mobilenet_v3_large_ssld_270e_voc.yml进行训练
配置文件示例
我们使用configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml配置进行训练。 在PaddleDetection2.0中,模块化做的更好,可以可自由修改覆盖各模块配置,进行自由组合。
配置文件结构说明
配置文件详细说明
从上图看到yolov3_mobilenet_v3_large_ssld_270e_voc.yml配置需要依赖其他的配置文件。在该例子中需要依赖:
在修改文件之前,先给大家解释一下各依赖文件的作用:
'_base_/optimizer_270e.yml',主要说明了学习率和优化器的配置,以及设置epochs。在其他的训练的配置中,学习率和优化器是放在了一个新的配置文件中。 '../datasets/voc.yml'主要说明了训练数据和验证数据的路径,包括数据格式(coco、voc等) '_base_/yolov3_reader.yml', 主要说明了读取后的预处理操作,比如resize、数据增强等等 '_base_/yolov3_mobilenet_v3_large.yml',主要说明模型、和主干网络的情况说明。 '../runtime.yml',主要说明了公共的运行状态,比如说是否使用GPU、迭代轮数等等
数据配置如下:
configs/datasets/voc.yml
硅基智能
基于Web3.0的元宇宙,去中心化的互联网,高质量、沉浸式元宇宙直播平台,用数字化重新定义直播
62 查看详情
../datasets/voc.yml
metric: VOCmap_type: 11pointnum_classes: 4TrainDataset: !VOCDataSet dataset_dir: /home/aistudio/work anno_path: train.txt label_list: label_list.txt data_fields: ['image', 'gt_bbox', 'gt_class', 'difficult']EvalDataset: !VOCDataSet dataset_dir: /home/aistudio/work anno_path: val.txt label_list: label_list.txt data_fields: ['image', 'gt_bbox', 'gt_class', 'difficult']TestDataset: !ImageFolder anno_path: /home/aistudio/work/label_list.txt
num_classes为目标类别数目;dataset_dir为数据存放目录;anno_path为标注文件相对路径;label_list为标签列表。
base/optimizer_270e.yml
epoch为训练的轮数;base_lr为初始学习率。
配置文件结构说明
执行训练
执行下面命令开始进行训练,需要指定训练配置文件路径-c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml,–eval参数指定在训练过程中进行评估。
In [ ]
%cd /home/aistudio/PaddleDetection!python tools/train.py -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml --eval
模型评估
需要指定评估配置文件路径-c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml,被评估的模型路径-o weights=output/yolov3_mobilenet_v3_large_ssld_270e_voc/best_model.pdparams。
In [ ]
%cd /home/aistudio/PaddleDetection/!python -u tools/eval.py -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml -o weights=/home/aistudio/work/best_model.pdparams
模型预测
在执行tools/infer.py后,在output文件夹下会生成对应的预测结果。
需要指定:
预测配置文件-c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml;预测用到的模型-o weights=/home/aistudio/work/best_model.pdparams;预测的图像路径–infer_img=/home/aistudio/work/people_930.jpg。In [14]
!python tools/infer.py -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml -o weights=/home/aistudio/work/best_model.pdparams --infer_img=/home/aistudio/work/people_930.jpg
推理结果可视化:
In [18]
%matplotlib inlineimport matplotlib.pyplot as plt import cv2infer_img = cv2.imread("output/people_930.jpg")plt.figure(figsize=(15, 10))plt.imshow(cv2.cvtColor(infer_img, cv2.COLOR_BGR2RGB))plt.show()
PaddleDetection 预测部署
PaddleDetection提供了Paddle Inference、Paddle Serving、Paddle-Lite多种部署形式,支持服务端、移动端、嵌入式等多种平台,提供了完善的Python和C++部署方案。
PaddleDetection支持的部署形式说明
Paddle InferencePython已完善Linux(ARMX86)、WindowsPaddle InferenceC++已完善Linux(ARMX86)、WindowsPaddle ServingPython已完善Linux(ARMX86)、WindowsPaddle-LiteC++已完善Android、IOS、FPGA、RK…
Paddle Inference部署
导出模型
导出模型,默认存储于PaddleDetection/output_inference目录
In [19]
%cd /home/aistudio/PaddleDetection!python tools/export_model.py -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml -o weights=/home/aistudio/work/best_model.pdparams
使用PaddleInference进行预测
Python部署 支持CPU、GPU和XPU环境,支持,windows、linux系统,支持NV Jetson嵌入式设备上部署。参考文档python部署C++部署 支持CPU、GPU和XPU环境,支持,windows、linux系统,支持NV Jetson嵌入式设备上部署。参考文档C++部署PaddleDetection支持TensorRT加速,相关文档请参考TensorRT预测部署教程
注意: Paddle预测库版本需要>=2.1,batch_size>1仅支持YOLOv3和PP-YOLO。
In [20]
!python deploy/python/infer.py --model_dir=output_inference/yolov3_mobilenet_v3_large_ssld_270e_voc --image_file=/home/aistudio/work/people_930.jpg --use_gpu=True
推理数据
推理时间:Inference: 30.33137321472168 ms per batch image
检测出目标id,置信度以及预测框的坐标:class_id:0, confidence:0.6939, left_top:[254.97,189.10],right_bottom:[333.20,224.15]
保存路径:save result to: output/fall_39.jpg
PaddleServing部署
安装 paddle serving
请参考PaddleServing中安装教程安装(版本>=0.6.0)。
导出模型
如果需要导出PaddleServing格式的模型,需要设置export_serving_model=True:
python tools/export_model.py -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml -o weights=output/yolov3_mobilenet_v3_large_ssld_270e_voc/best_model.pdparams --export_serving_model=True
预测模型会导出到output_inference/yolov3_mobilenet_v3_large_ssld_270e_voc目录下,分别为infer_cfg.yml, model.pdiparams, model.pdiparams.info, model.pdmodel, serving_client/文件夹, serving_server/文件夹。
模型导出具体请参考文档PaddleDetection模型导出教程。
In [21]
# 安装paddle_serving_client!pip install paddle_serving_client
In [22]
!python tools/export_model.py -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml -o weights=/home/aistudio/work/best_model.pdparams --export_serving_model=True
使用PaddleServing进行预测
安装PaddleServing使用PaddleServing
PaddleLite部署
使用PaddleLite部署PaddleDetection模型详细案例请参考Paddle-Lite-Demo部署。更多内容,请参考Paddle-Lite
Benchmark测试
PP-YOLO模型benchmark测试为不包含数据预处理和网络输出后处理(NMS)的网络结构部分数据,导出模型时须指定–exlcude_nms来裁剪掉模型中后处理的NMS部分,通过如下命令进行模型导出和benchmark测试。
# 导出模型,通过--exclude_nms参数裁剪掉模型中的NMS部分,默认存储于output_inference/yolov3_mobilenet_v3_large_ssld_270e_voc目录python tools/export_model.py -c -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml -o weights=output/yolov3_mobilenet_v3_large_ssld_270e_voc/best_model.pdparams --exclude_nms# FP32 benchmark测试CUDA_VISIBLE_DEVICES=0 python deploy/python/infer.py --model_dir=output_inference/yolov3_mobilenet_v3_large_ssld_270e_voc --image_file=/home/aistudio/work/fall3.jpg --use_gpu=True --run_benchmark=True --run_mode=trt_fp32# TensorRT FP16 benchmark测试CUDA_VISIBLE_DEVICES=0 python deploy/python/infer.py --model_dir=output_inference/yolov3_mobilenet_v3_large_ssld_270e_voc --image_file=/home/aistudio/work/fall3.jpg --use_gpu=True --run_benchmark=True --run_mode=trt_fp16
In [24]
!python deploy/python/infer.py --model_dir=output_inference/yolov3_mobilenet_v3_large_ssld_270e_voc --image_file=/home/aistudio/work/people_930.jpg --use_gpu=True --run_benchmark=True
总结
由上图我们可以看到,使用PaddleDetection完成了跌倒的目标识别检测,并且mAP已经达到了80.28%。
优化方案
可以通过增加数据集、选择更优化模型,增加训练的次数。
后期应用
后期可以部署到医院、疗养院等公共场合,甚至家里的监控中实现跌倒目标检测,可以及时救援,以免造成更大的损失。
更多深度学习资源
一站式深度学习平台awesome-DeepLearning
深度学习入门课
深度学习百问
特色课
产业实践
以上就是基于YOLOv3实现跌倒检测的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/316995.html
微信扫一扫
支付宝扫一扫