单目标跟踪算法模型介绍
对于一个输入视频,只需在第一帧图像中用矩形框指定待跟踪目标,单目跟踪算法将在整个视频帧中持续跟踪该目标,输出跟踪目标在所有图像帧中的矩形框信息。
模型描述
本模型是基于ProContEXT方案的单目标跟踪框架,使用ViT作为主干网络进行训练,是One-Stream单目标跟踪算法。 本算法将特征抽取和匹配过程通过注意力机制同步进行,获得较高的目标跟踪精度。
期望模型使用方式以及适用范围
该模型适用于视频单目标跟踪场景,目前在TrackingNet, GOT-10K开源数据集上达到SOTA水平。
在线体验步骤
- 点击“上传视频”按钮上传本地视频,或者直接使用默认示例视频。
- 在视频图片中用鼠标框定目标。
- 点击“执行测试”按钮,算法运行结束后,可在“测试结果”栏中播放查看跟踪结果视频。
如何使用模型
- 根据输入待跟踪视频和第一帧图像对应的待跟踪矩形框(x1, y1, x2, y2),可按照代码范例进行模型推理和可视化。
代码范例
from modelscope.utils.cv.image_utils import show_video_tracking_result
from modelscope.outputs import OutputKeys
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
video_single_object_tracking = pipeline(Tasks.video_single_object_tracking, model='damo/cv_vitb_video-single-object-tracking_procontext')
video_path = "https://modelscope.oss-cn-beijing.aliyuncs.com/test/videos/dog.avi"
init_bbox = [414, 343, 514, 449] # the initial object bounding box in the first frame [x1, y1, x2, y2]
result = video_single_object_tracking((video_path, init_bbox))
show_video_tracking_result(video_path, result[OutputKeys.BOXES], "./tracking_result.avi")
print("result is : ", result[OutputKeys.BOXES])
模型局限性以及可能的偏差
- 在遮挡严重场景和背景中存在与目标高度相似的物体场景下,目标跟踪精度可能欠佳。
- 建议在有GPU的机器上进行测试,由于硬件精度影响,CPU上的结果会和GPU上的结果略有差异。
数据评估及结果
模型在GOT-10k和TrackingNet的测试集上客观指标如下:
Tracker | GOT-10K (AO) | TrackingNet (AUC) |
---|---|---|
ProContEXT | 74.6 | 84.6 |
相关论文以及引用信息
本模型主要参考论文如下:
@article{ProContEXT,
author = {Jin{-}Peng Lan and
Zhi{-}Qi Cheng and
Jun{-}Yan He and
Chenyang Li and
Bin Luo and
Xu Bao and
Wangmeng Xiang and
Yifeng Geng and
Xuansong Xie},
title = {ProContEXT: Exploring Progressive Context Transformer for Tracking},
journal = {CoRR},
volume = {abs/2210.15511},
year = {2022},
url = {https://doi.org/10.48550/arXiv.2210.15511},
doi = {10.48550/arXiv.2210.15511},
}
Clone with HTTP
git clone https://www.modelscope.cn/damo/cv_vitb_video-single-object-tracking_procontext.git
评论