实时安全帽检测-通用 模型介绍
本模型为高性能热门应用系列检测模型中的 实时安全帽检测模型,基于面向工业落地的高性能检测框架DAMOYOLO,其精度和速度超越当前经典的YOLO系列方法。用户使用的时候,仅需要输入一张图像,便可以获得图像中所有人头的坐标信息,以及是否佩戴安全帽(头盔)。
相关模型
以下是ModelScope上所有的热门应用检测模型(垂类目标检测模型):
序号 | 模型名称 | 序号 | 模型名称 |
---|---|---|---|
1 | 实时人体检测模型 | 6 | 实时香烟检测模型 |
2 | 实时人头检测模型 | 7 | 实时手机检测模型 |
3 | 实时手部检测模型 | 8 | 实时交通标识检测模型 |
4 | 实时口罩检测模型 | 9 | Coming soon |
5 | 实时安全帽检测模型 |
模型描述
本模型为实时安全帽检测模型,基于检测框架DAMOYOLO-S模型,DAMO-YOLO是一个面向工业落地的目标检测框架,兼顾模型速度与精度,其训练的模型效果超越了目前的一众YOLO系列方法,并且仍然保持极高的推理速度。DAMOYOLO与YOLO系列其它经典工作的性能对比如下图所示:
DAMOYOLO整体网络结构如下,整体由backbone (MAE-NAS), neck (GFPN), head (ZeroHead)三部分组成,基于"large neck, small head"的设计思想,对低层空间信息和高层语义信息进行更加充分的融合,从而提升模型最终的检测效果。
期望模型使用方式以及适用范围
该模型适用于安全帽检测,输入任意的图像,输出图像中人头的外接矩形框坐标信息(支持图片中有多个人),以及是否佩戴安全帽。
类别ID | 类别名称 |
---|---|
1 | safety hat |
2 | no safety hat |
如何使用
在ModelScope框架上,提供输入图片,即可以通过简单的Pipeline调用使用当前模型,得到图像中所有人头的外接矩形框坐标信息,以及是否佩戴安全帽。
推理代码范例
基础示例代码。下面的示例代码展示的是如何通过一张图片作为输入,得到图片对应的人脸佩戴安全帽检测结果。
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
model_id = 'damo/cv_tinynas_object-detection_damoyolo_safety-helmet'
input_location = 'https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_safetyhat.jpg'
safety_hat_detection = pipeline(Tasks.domain_specific_object_detection, model=model_id)
result = safety_hat_detection(input_location)
print("result is : ", result)
微调代码范例
下面的示例代码展示如何基于已有的COCO格式数据集,进行模型的微调(finetune)。详细的训练说明可以参见:DAMOYOLO-S模型。
import os.path as osp
from modelscope.metainfo import Trainers
from modelscope.trainers import build_trainer
from modelscope.msdatasets import MsDataset
from modelscope.utils.constant import DownloadMode
# Step 1: 数据集准备,可以使用modelscope上已有的数据集,也可以自己在本地构建COCO数据集
train_dataset = MsDataset.load('safetyhelmet_detection_for_train', namespace="modelscope", split='train', download_mode=DownloadMode.FORCE_REDOWNLOAD)
val_dataset = MsDataset.load('safetyhelmet_detection_for_train', namespace="modelscope", split='validation', download_mode=DownloadMode.FORCE_REDOWNLOAD)
# Step 2: 相关参数设置
train_root_dir = train_dataset.config_kwargs['split_config']['train']
val_root_dir = val_dataset.config_kwargs['split_config']['validation']
train_img_dir = osp.join(train_root_dir, 'images')
val_img_dir = osp.join(val_root_dir, 'images')
train_anno_path = osp.join(train_root_dir, 'train.json')
val_anno_path = osp.join(val_root_dir, 'val.json')
kwargs = dict(
model='damo/cv_tinynas_object-detection_damoyolo_safety-helmet', # 使用DAMO-YOLO-S模型
gpu_ids=[ # 指定训练使用的gpu
0,
],
batch_size=2, # batch_size, 每个gpu上的图片数等于batch_size // len(gpu_ids)
max_epochs=3, # 总的训练epochs
num_classes=2, # 自定义数据中的类别数
load_pretrain=True, # 是否载入预训练模型,若为False,则为从头重新训练
base_lr_per_img=0.001, # 每张图片的学习率,lr=base_lr_per_img*batch_size
train_image_dir=train_img_dir, # 训练图片路径
val_image_dir=val_img_dir, # 测试图片路径
train_ann=train_anno_path, # 训练标注文件路径
val_ann=val_anno_path, # 测试标注文件路径
)
# Step 3: 开启训练任务
trainer = build_trainer(
name=Trainers.tinynas_damoyolo, default_args=kwargs)
trainer.train()
训练数据介绍
本模型是基于以下两部分数据集训练得到:
- Safety Helmet Wearing Dataset (SHWD)安全帽数据;
- 内部积累以及互联网爬取的相关安全帽数据。
数据评估及结果
模型在SHWD的验证集上客观指标如下:
Method | mAP@0.5 | Latency(ms) T4-TRT-FP16 |
FLOPs (G) | Parameters (M) |
---|---|---|---|---|
DAMO-YOLO-S | 0.935 | 3.83 | 37.8 | 16.3 |
相关论文以及引用信息
本模型主要参考论文如下(论文链接:link):
@article{damoyolo,
title={DAMO-YOLO: A Report on Real-Time Object Detection Design},
author={Xianzhe Xu, Yiqi Jiang, Weihua Chen, Yilun Huang, Yuan Zhang and Xiuyu Sun},
journal={arXiv preprint arXiv:2211.15444v2},
year={2022}
}
评论