VitDet图像目标检测

我要开发同款
匿名用户2024年07月31日
19阅读
开发技术vit-object-detection、pytorch
所属分类ai、exploring plain visi、vit、image object detecti、Alibaba、mask mAP、bbox mAP、cv
开源地址https://modelscope.cn/models/iic/cv_vit_object-detection_coco
授权协议Apache License 2.0

作品详情

vit-object-detection模型介绍

Exploring Plain Vision Transformer Backbones for Object Detection文章复现,采用COCO数据集训练。

期望模型使用方式与适用范围

本模型适用范围较广,能对图片中包含的大部分前景物体(COCO 80类)进行定位。

如何使用

在ModelScope框架上,提供输入图片,即可以通过简单的Pipeline调用使用当前模型。

代码范例

from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
object_detect = pipeline(Tasks.image_object_detection,model='damo/cv_vit_object-detection_coco')
img_path ='https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_detection.jpg'
result = object_detect(img_path)
print(result)

模型局限性以及可能的偏差

  • 使用coco2017对论文复现,指标略逊于论文指标(0.002)。
  • 召回目标coco-80类数据范围。

训练数据介绍

  • coco2017数据集,Microsoft团队提供的一个可以用来图像识别、检测和分割的数据集。COCO2017包含训练集118287张、验证集5000张、测试集40670张,共有80类物体。具体可见(https://cocodataset.org/#detection-2017)

模型训练流程

  • 模型训练 使用ImageNet-1K上的预训练模型VitBase作为基础backbone,采取MaskRCNN结构复现论文结果。

预处理

  • 给定一张输入图像,分辨率归一化至(1024,1024),颜色值减均值除方差归一化处理。

数据评估及结果

Backbone Pretrain box mAP mask mAP Remark
ViT-Base ImageNet-1k 51.6 45.9 official
ViT-Base ImageNet-1k 51.1 45.5 unofficial
ViT-Base ImageNet-1k 51.4 45.7 modelscope

引用

@article{Li2022ExploringPV,
  title={Exploring Plain Vision Transformer Backbones for Object Detection},
  author={Yanghao Li and Hanzi Mao and Ross B. Girshick and Kaiming He},
  journal={ArXiv},
  year={2022},
  volume={abs/2203.16527}
}
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论