【公共场所吸烟检测吸烟】爸,你还敢抽烟么

该项目针对公共场所禁烟效果不佳问题,基于PaddleX训练模型,结合语音播报实现控烟。先处理数据集,修改XML文件适配格式,清理冗余文件并划分训练、验证、测试集(7:2:1)。用PPYolo模型训练300个epoch,第277个效果最佳,map约76。导出模型后部署,通过摄像头检测,阈值≥0.3时播放禁烟语音。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

【公共场所吸烟检测吸烟】爸,你还敢抽烟么 - 创想鸟

不抽烟,也没有烟,所以只能以这种形式代替了

爸,这下你还敢抽烟吗?/邪笑

【公共场所吸烟检测吸烟】爸,你还敢抽烟么 - 创想鸟        

我爸:这锅我不背!!

项目背景

  2014年11月24日,卫生计生委起草了《公共场所控制吸烟条例(送审稿)》向社会公开征求意见。送审稿明确,所有室内公共场所一律禁止吸烟。此外,体育、健身场馆的室外观众坐席、赛场区域;公共交通工具的室外等候区域等也全面禁止吸烟。而《公共场所控制吸烟条例》实施后,卫计委将考虑为控烟条例设置举报电话,同时开展监测评估,鼓励全社会参与戒烟活动。 

  但有很多人秉持“多一事不如少一事”的原则:“欸,有点电话就不打,我就忍着!”,导致社会公共场所禁烟效果普遍不佳。

  因而“公共场所,禁止吸烟”的标牌,也渐渐沦为了摆设。

【公共场所吸烟检测吸烟】爸,你还敢抽烟么 - 创想鸟        

项目介绍

  本项目基于PaddleX进行模型训练,并利用inference导出后部署在本地,并使用百度大脑合成后进行“公共场所,禁止吸烟”的语音播报。

首先导入使用PaddleX时所需的模块

In [9]

!pip install paddlex!pip install paddle2onnx

   In [65]

# 进行数据集解压!unzip -oq /home/aistudio/data/data86368/smoke.zip -d /home/aistudio/dataset2

   

  下面这个check.py是我在开发过程中遇到点小问题在PaddleX的Github issue中找到的,后面我们会提到这个脚本的功能。
(深刻启示:有问题就去逛issue!!!要相信你现在所遇到的绝大多数问题已经有“先烈”替你趟过了!即使没有也可以提issue!飞桨的开发小哥哥们回复也是炒鸡快!!!!)

In [52]

!mv check.py dataset

   

数据处理和数据清洗

  在执行数据集解压命令后,可以看到本数据集提供了images和Annotations两个文件夹,分别存放.jpg和.xml文件。为了能够顺利使用PaddleX进行数据集划分和模型训练,需要将原本数据集修改为符合PaddleX数据集格式的数据集。In [53]

# 这里修改.xml文件中的元素!mkdir dataset/Annotations1import xml.dom.minidomimport ospath = r'dataset/Annotations'  # xml文件存放路径sv_path = r'dataset/Annotations1'  # 修改后的xml文件存放路径files = os.listdir(path)cnt = 1for xmlFile in files:    dom = xml.dom.minidom.parse(os.path.join(path, xmlFile))  # 打开xml文件,送到dom解析    root = dom.documentElement  # 得到文档元素对象    item = root.getElementsByTagName('path')  # 获取path这一node名字及相关属性值    for i in item:        i.firstChild.data = '/home/aistudio/dataset/JPEGImages/' + str(cnt).zfill(6) + '.jpg'  # xml文件对应的图片路径    with open(os.path.join(sv_path, xmlFile), 'w') as fh:        dom.writexml(fh)    cnt += 1

   In [55]

# 这里修改.xml文件中的元素!mkdir dataset/Annotations2import xml.dom.minidomimport ospath = r'dataset/Annotations1'  # xml文件存放路径sv_path = r'dataset/Annotations2'  # 修改后的xml文件存放路径files = os.listdir(path)for xmlFile in files:    dom = xml.dom.minidom.parse(os.path.join(path, xmlFile))  # 打开xml文件,送到dom解析    root = dom.documentElement  # 得到文档元素对象    names = root.getElementsByTagName('filename')    a, b = os.path.splitext(xmlFile)  # 分离出文件名a    for n in names:        n.firstChild.data = a + '.jpg'    with open(os.path.join(sv_path, xmlFile), 'w') as fh:        dom.writexml(fh)

   In [56]

# 这里修改.xml文件中的元素!mkdir dataset/Annotations3#!/usr/bin/env python2# -*- coding: utf-8 -*- import osimport xml.etree.ElementTree as ET origin_ann_dir = '/home/aistudio/dataset/Annotations2/'# 设置原始标签路径为 Annosnew_ann_dir = '/home/aistudio/dataset/Annotations3/'# 设置新标签路径 Annotationsfor dirpaths, dirnames, filenames in os.walk(origin_ann_dir):   # os.walk游走遍历目录名  for filename in filenames:    print("process...")    # if os.path.isfile(r'%s%s' %(origin_ann_dir, filename)):   # 获取原始xml文件绝对路径,isfile()检测是否为文件 isdir检测是否为目录    origin_ann_path = os.path.join(origin_ann_dir, filename)   # 如果是,获取绝对路径(重复代码)    new_ann_path = os.path.join(new_ann_dir, filename)    tree = ET.parse(origin_ann_path)  # ET是一个xml文件解析库,ET.parse()打开xml文件。parse--"解析"    root = tree.getroot()   # 获取根节点    for object in root.findall('object'):   # 找到根节点下所有“object”节点        name = str(object.find('name').text)  # 找到object节点下name子节点的值(字符串)        # 如果name等于str,则删除该节点        if (name in ["smoke"]):        #   root.remove(object)            pass        # 如果name等于str,则修改name        else:            object.find('name').text = "smoke"        tree.write(new_ann_path)#tree为文件,write写入新的文件中。        print("OK1")

   由于在上述数据处理过程中我们产生了很多冗余的文件,故需将其删除。并将其更改为适合PaddleX的数据集格式。In [57]

!rm -rf dataset/Annotations!rm -rf dataset/Annotations1!rm -rf dataset/Annotations2!mv dataset/Annotations3 dataset/Annotations!mv dataset/images dataset/JPEGImages

   

在原始数据集中,存在.jpg文件和.xml文件匹配不对等的情况,这里我们根据.jpg文件名删除了在Annotations文件夹中无法匹配的.xml文件,使得.jpg和.xml能够一一对应。

In [59]

import osimport shutilpath_annotations = 'dataset/Annotations'path_JPEGImage = 'dataset/JPEGImages'xml_path = os.listdir(path_annotations)jpg_path = os.listdir(path_JPEGImage)for i in jpg_path:    a = i.split('.')[0] + '.xml'    if a in xml_path:        pass    else:        print(i)        os.remove(os.path.join(path_JPEGImage,i))

   

因为懒(有现成的为啥还要自己写呢~),所以就用了PaddleX 自带的划分数据集的命令,这里我们训练集、验证集、测试集的比例为7:2:1。

In [60]

!paddlex --split_dataset --format VOC --dataset_dir /home/aistudio/dataset/ --val_value 0.2 --test_value 0.1

       

/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/setuptools/depends.py:2: DeprecationWarning: the imp module is deprecated in favour of importlib; see the module's documentation for alternative uses  import impDataset Split Done.Train samples: 3403Eval samples: 972Test samples: 486Split files saved in /home/aistudio/dataset/

       

  当然,从一般情况来说,这一步完成之后就可以进行模型训练了。但其实在实际过程中,若进行模型训练,在训练过程中会报错。具体报错,大家感兴趣的可以实地体验一下(嘿嘿嘿)。这里就需要用到我们在开头所提到的check.py文件。执行以下命令,会输出图片读取有误的图片路径。我们用rm -rf命令将其与其对应的.xml文件删除。

In [61]

%cd dataset/!cat train_list.txt | python check.py!cat test_list.txt | python check.py!cat val_list.txt | python check.py

       

/home/aistudio/datasetWrong img file: JPEGImages/790_strawberry.jpgWrong img file: JPEGImages/791_strawberry.jpgWrong img file: JPEGImages/000143.jpgWrong img file: JPEGImages/000144.jpgWrong img file: JPEGImages/000120.jpgWrong img file: JPEGImages/780_strawberry.jpgWrong img file: JPEGImages/845_strawberry.jpgWrong img file: JPEGImages/smoke132.jpgCorrupt JPEG data: 1 extraneous bytes before marker 0xdbWrong img file: JPEGImages/000325.jpgWrong img file: JPEGImages/000193.jpg

       In [62]

!rm -rf JPEGImages/000120.jpg!rm -rf JPEGImages/000143.jpg!rm -rf JPEGImages/791_strawberry.jpg!rm -rf JPEGImages/smoke132.jpg!rm -rf JPEGImages/780_strawberry.jpg!rm -rf JPEGImages/000193.jpg!rm -rf JPEGImages/845_strawberry.jpg!rm -rf JPEGImages/000325.jpg!rm -rf JPEGImages/000144.jpg!rm -rf JPEGImages/790_strawberry.jpg!rm -rf Annotations/000120.xml!rm -rf Annotations/000143.xml!rm -rf Annotations/791_strawberry.xml!rm -rf Annotations/smoke132.xml!rm -rf Annotations/780_strawberry.xml!rm -rf Annotations/000193.xml!rm -rf Annotations/845_strawberry.xml!rm -rf Annotations/000325.xml!rm -rf Annotations/000144.xml!rm -rf Annotations/790_strawberry.xml

   

并且删除之前生成的几个关于数据集的文本文件,重新执行PaddleX划分数据集的命令。

In [63]

!rm -rf val_list.txt!rm -rf train_list.txt!rm -rf test_list.txt!rm -rf labels.txt

   In [64]

!paddlex --split_dataset --format VOC --dataset_dir /home/aistudio/dataset/ --val_value 0.2 --test_value 0.1

       

/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/setuptools/depends.py:2: DeprecationWarning: the imp module is deprecated in favour of importlib; see the module's documentation for alternative uses  import impDataset Split Done.Train samples: 3396Eval samples: 970Test samples: 485Split files saved in /home/aistudio/dataset/

       In [25]

%cd /home/aistudio/

       

/home/aistudio

       

模型训练

  在使用PaddleX进行模型训练的过程中,我们使用目前PaddleX适配精度最高的PPYolo模型进行训练。其模型较大,预测速度比YOLOv3-DarkNet53更快,适用于服务端。大家也可以更改其他模型尝试一下。这里我训练了大概300个epoch(别问,问就是没算力了也懒得续点了……)其中第277个epoch效果最佳,map大概在76。(有算力的童鞋可以试着调参或者继续往下面去试试)

In [27]

import osos.environ['CUDA_VISIBLE_DEVICES'] = '0'from paddlex.det import transformsimport paddlex as pdx# 定义训练和验证时的transforms# API说明 https://paddlex.readthedocs.io/zh_CN/develop/apis/transforms/det_transforms.htmltrain_transforms = transforms.Compose([    transforms.MixupImage(mixup_epoch=250), transforms.RandomDistort(),    transforms.RandomExpand(), transforms.RandomCrop(), transforms.Resize(        target_size=608, interp='RANDOM'), transforms.RandomHorizontalFlip(),    transforms.Normalize()])eval_transforms = transforms.Compose([    transforms.Resize(        target_size=608, interp='CUBIC'), transforms.Normalize()])# 定义训练和验证所用的数据集# API说明:https://paddlex.readthedocs.io/zh_CN/develop/apis/datasets.html#paddlex-datasets-vocdetectiontrain_dataset = pdx.datasets.VOCDetection(    data_dir='/home/aistudio/dataset',    file_list='/home/aistudio/dataset/train_list.txt',    label_list='/home/aistudio/dataset/labels.txt',    transforms=train_transforms,    parallel_method='thread',    shuffle=True)eval_dataset = pdx.datasets.VOCDetection(    data_dir='/home/aistudio/dataset',    file_list='/home/aistudio/dataset/val_list.txt',    label_list='/home/aistudio/dataset/labels.txt',    parallel_method='thread',    transforms=eval_transforms)# 初始化模型,并进行训练# 可使用VisualDL查看训练指标,参考https://paddlex.readthedocs.io/zh_CN/develop/train/visualdl.htmlnum_classes = len(train_dataset.labels)# API说明: https://paddlex.readthedocs.io/zh_CN/develop/apis/models/detection.html#paddlex-det-ppyolomodel = pdx.det.PPYOLO(num_classes=num_classes)# API说明: https://paddlex.readthedocs.io/zh_CN/develop/apis/models/detection.html#train# 各参数介绍与调整说明:https://paddlex.readthedocs.io/zh_CN/develop/appendix/parameters.htmlmodel.train(    num_epochs=540,    train_dataset=train_dataset,    train_batch_size=8,    eval_dataset=eval_dataset,    learning_rate=0.000125,    save_interval_epochs=1,    lr_decay_epochs=[270,320, 480],    save_dir='output/ppyolo',    use_vdl=True)

   

模型导出

  这里我们将训练过程中保存的模型导出为inference格式模型,其原因在于:PaddlePaddle框架保存的权重文件分为两种:支持前向推理和反向梯度的训练模型 和 只支持前向推理的推理模型。二者的区别是推理模型针对推理速度和显存做了优化,裁剪了一些只在训练过程中才需要的tensor,降低显存占用,并进行了一些类似层融合,kernel选择的速度优化。而导出的inference格式模型包括__model__、__params__和model.yml三个文件,分别表示模型的网络结构、模型权重和模型的配置文件(包括数据预处理参数等)。

In [ ]

!paddlex --export_inference --model_dir=PaddleDetection/output/ppyolo/epoch_277 --save_dir=./inference_model

   

简单部署尝试

  下面我们简单地部署体验了一番。这里打开了设备摄像头进行视频流预测,并设置了在阈值>=0.3的时候会播放“公共场所,禁止吸烟!”

  在本项目中可以看到存在“cigarette.mp3”和“dad.mp3”的音频文件。“dad.mp3”的具体内容这里卖个关子。大家下载下来体验一下就知道了hhh。

  而这里的音频,使用的是百度大脑的语音合成API,具体的大家可以去百度大脑官网看看,在本项目中就不予展示了。

In [ ]

import cv2import paddlex as pdxfrom playsound import playsound# 修改模型所在位置predictor = pdx.deploy.Predictor('D:projectpythoncigaretteinference_model')cap = cv2.VideoCapture(0)while cap.isOpened():    ret, frame = cap.read()    if ret:        result = predictor.predict(frame)        score = result[0]['score']        if score >= 0.3:            print("*"*100)            # 修改音频所在位置            playsound('D:projectpythoncigarettecigarette.mp3')        # print(result)        vis_img = pdx.det.visualize(frame, result, threshold=0.6, save_dir=None)        cv2.imshow('cigarette', vis_img)        if cv2.waitKey(1) & 0xFF == ord('q'):            break    else:        breakcap.release()

   

以上就是【公共场所吸烟检测吸烟】爸,你还敢抽烟么的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/59752.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月10日 16:01:37
下一篇 2025年11月10日 16:04:22

相关推荐

  • C++怎么解析JSON数据 C++解析JSON的库与方法对比

    c++++解析json的解决方案是选择合适的库。主流库包括rapidjson、json for modern c++、boost.json。1. rapidjson:速度快,内存占用低,适合性能敏感场景,但api较底层;2. json for modern c++:语法简洁,符合现代c++风格,易用…

    2025年12月18日 好文分享
    000
  • 对象在内存中如何布局 成员变量排列与对齐规则

    对象在内存中按声明顺序排列,但受对齐规则影响,编译器会插入填充字节以满足成员及整体对齐要求,导致实际大小大于成员之和。例如struct { char a; int b; char c; }在64位系统下总大小为12字节,因int需4字节对齐,a与b间填3字节,末尾再补3字节使总大小为4的倍数。对齐提…

    2025年12月18日
    000
  • 内存映射文件怎么实现 大文件高效访问技术解析

    内存映射文件通过将文件直接映射到进程虚拟地址空间,实现高效的大文件处理。它利用mmap(类Unix)或CreateFileMapping/MapViewOfFile(Windows)API,建立文件与内存的页表映射,按需调页,避免传统I/O的多次数据拷贝和频繁系统调用,实现零拷贝、简化编程、高效随机…

    2025年12月18日
    000
  • 继承构造函数怎么用 using继承基类构造方法

    使用 using base::base; 可以继承基类构造函数,避免手动重复编写转发构造函数,从而减少代码量并提高可维护性;当基类有多个构造函数且派生类仅需简单继承时,推荐使用该方式,但需注意其无法处理虚基类、不支持构造函数参数修改或添加额外逻辑,并可能在多重继承时引发歧义,因此在需要精细控制构造过…

    2025年12月18日
    000
  • 联合体和结构体有什么区别 共享内存与独立内存对比

    联合体与结构体体现C语言内存管理的两种哲学:结构体通过独立内存空间聚合数据,提升组织性与可读性;联合体则通过共享内存实现内存高效利用,但需承担类型安全风险。共享内存作为IPC最快机制,以零拷贝优势支撑高并发与大数据场景,却需同步机制规避数据竞争;独立内存通过虚拟地址隔离保障系统稳定性与安全性,防止进…

    2025年12月18日
    000
  • 内存映射文件怎么用 大文件高效访问技术

    %ignore_a_1%通过将文件直接映射到进程虚拟内存,使程序像访问内存一样操作文件,避免传统I/O的数据复制和频繁系统调用,提升大文件随机访问效率。其核心优势在于消除用户态与内核态数据拷贝、利用操作系统页面管理机制实现按需加载和预读优化,并简化编程模型。在Windows使用CreateFileM…

    2025年12月18日
    000
  • 移动语义如何提升STL性能 emplace_back优势分析

    emplace_back通过在容器内直接构造对象,避免了push_back先构造临时对象再复制或移动的开销,减少了构造函数调用和临时对象的创建,尤其对资源密集型对象显著提升性能。 移动语义,特别是通过 emplace_back 等接口在STL容器中的应用,是现代C++提升性能的关键一环。说白了,它避…

    2025年12月18日
    000
  • shared_ptr引用计数怎样工作 共享所有权机制解析

    shared_ptr通过控制块中的引用计数实现共享所有权,强引用计数为0时释放对象,弱引用计数为0时释放控制块,确保线程安全与资源正确回收。 shared_ptr 的引用计数机制是 C++ 智能指针实现共享所有权的核心。它允许多个 shared_ptr 实例指向同一块动态分配的内存,只有当最后一个 …

    2025年12月18日
    000
  • C++ shared_ptr循环引用怎么办 weak_ptr解决方案详解

    c++++中shared_ptr的循环引用问题会导致内存泄漏,解决方法是使用weak_ptr。①循环引用发生在两个或多个shared_ptr相互持有对方,引用计数无法归零;②weak_ptr不增加引用计数,仅用于临时访问对象,通过lock()获取shared_ptr;③修改类定义,将其中一个shar…

    2025年12月18日 好文分享
    000
  • C++中如何实现多态特性_多态实现原理与代码示例

    c++++中多态的核心在于通过虚函数实现“一个接口,多种方法”。1. 使用virtual关键字在基类中声明虚函数;2. 派生类重写虚函数并使用override提高可读性;3. 通过基类指针或引用调用虚函数,实际执行派生类的实现。若不使用虚函数,则调用始终绑定到基类函数。虚函数表(vtable)在编译…

    2025年12月18日 好文分享
    000
  • 内存拷贝怎样优化 memcpy与移动语义效率对比

    答案:memcpy优化依赖底层指令与对齐,适用于POD类型;移动语义通过转移资源避免深拷贝,适用于STL容器等复杂对象,二者适用场景不同。 内存拷贝的效率优化和 memcpy 与移动语义的对比,关键在于理解两者的使用场景和底层机制。它们解决的问题不同,不能简单说谁更快,但可以在合适的地方做出更优选择…

    2025年12月18日
    000
  • 继承关系中访问权限怎样控制 public protected private区别

    答案:public成员处处可访问,protected仅子类可见,private仅本类可见,继承方式影响权限传递。 在面向对象编程中,继承关系下的访问权限控制主要通过 public、protected 和 private 三种关键字来实现。它们决定了基类(父类)的成员在派生类(子类)以及外部代码中是否…

    2025年12月18日
    000
  • C++中数组的指针和引用如何转换 类型系统转换规则详解

    c++++中数组名在特定语境下会退化为指向首元素的指针,而数组引用和指向数组的指针则保留了数组的维度信息。1. 数组名退化成指针是语言默认行为,便于高效传递和操作数组;2. 指向数组的指针需用括号声明,如int (*ptrtoarray)[5],用于操作整个数组;3. 数组引用通过int (&amp…

    2025年12月18日 好文分享
    000
  • 如何调试C++中的异常问题 打印异常调用栈的技巧

    在c++++开发中,打印异常调用栈可通过以下方式实现:1. 使用标准异常机制捕获异常,在main函数设置顶层try-catch块并使用const std::exception&类型获取错误描述;2. 利用第三方库如boost.stacktrace或libunwind/backtrace生成完…

    2025年12月18日 好文分享
    000
  • C++中如何实现类型对象模式 运行时动态类型创建管理

    在c++++中实现运行时类型对象模式的核心在于通过统一基类、类型注册器和全局注册中心支持动态创建对象。1. 所有可动态创建的类必须继承通用基类object;2. typeobject抽象类封装类型信息与创建逻辑;3. concretetypeobject模板为每个具体类型生成创建实例的方法;4. t…

    2025年12月18日 好文分享
    000
  • 内存错误常见类型有哪些 段错误访问越界分析

    内存错误主要包括空指针解引用、野指针、数组越界、栈溢出、堆越界、重复释放和内存泄漏;2. 段错误由访问受保护内存或释放后使用等引起;3. 越界访问分栈和堆两类,常因不安全函数导致;4. 预防需结合初始化、安全函数、编译警告及AddressSanitizer等工具。 内存错误是程序运行过程中常见的问题…

    2025年12月18日
    000
  • 异常安全文件操作 资源泄漏防护实例

    使用RAII原则可防止文件句柄泄漏。通过智能指针FilePtr或标准库ifstream管理文件资源,确保异常发生时析构函数自动调用fclose或关闭文件,实现异常安全的文件操作。 在进行文件操作时,异常安全和资源泄漏防护是编程中不可忽视的重要环节。如果程序在打开文件后发生异常,而没有正确关闭文件句柄…

    2025年12月18日 好文分享
    000
  • 如何检测野指针问题 智能指针与调试技巧

    野指针是指指向已被释放或无效内存的指针,使用它会导致程序崩溃或数据损坏;其常见来源包括内存释放后未置空、返回局部变量地址、多指针共享内存未同步更新及指针越界等;可通过优先使用智能指针如std::unique_ptr、std::shared_ptr和std::weak_ptr来自动管理生命周期,避免手…

    2025年12月18日
    000
  • 怎样用智能指针实现缓存机制 weak_ptr构建对象缓存的实践方法

    使用 weak_ptr 而非 shared_ptr 是为了避免强引用导致的内存泄漏,1. weak_ptr 不增加引用计数,不影响对象生命周期;2. 使用前通过 lock() 检查有效性;3. 对象不再被外部使用时会自动失效。实现上采用 unordered_map 存储 weak_ptr,get 方…

    2025年12月18日 好文分享
    000
  • 多层嵌套异常怎么处理 异常传播栈展开过程

    多层嵌套异常是指在函数调用链中,异常从最内层函数抛出后未被立即捕获,而是沿调用栈向上传播,经过多个函数层级,直至被匹配的catch块处理或程序终止;当异常发生时,系统会触发栈展开过程,依次析构各层函数的局部对象以释放资源,并向上查找异常处理程序,若最终无任何catch块捕获,则调用std::term…

    2025年12月18日
    000

发表回复

登录后才能评论
关注微信