实时手势检测模型
输入一张图像,对其中的手势进行检测,输出图片中所有目标的检测框、置信度和标签。
阿里云免费0代码开发10+种主流芯片的c++硬件加速SDK/性能评估/寒武纪/瑞芯微/Sigmastar/算能/君正/清微/Nvidia/等其他主流芯片
部署问题加算法开发平台开发者联盟群钉钉:49280002751
模型描述
输入一张图像,对其中的手势进行检测,输出图片中所有目标的检测框、置信度和标签。
类别ID | 类别名称 |
---|---|
0 | ok |
1 | stop |
2 | palm |
3 | like |
4 | dislike |
5 | no_gesture |
6 | call |
7 | fist |
8 | four |
9 | mute |
10 | one |
11 | peace |
12 | peace_inverted |
13 | rock |
14 | stop_inverted |
15 | three |
16 | three2 |
17 | two_up |
18 | twoupinverted |
使用方式和范围
使用方式:
- 对其中手势目标进行检测,输出图片中所有目标的检测框、置信度和标签。
目标场景: 1,监控场景
如何使用
在ModelScope框架上,提供输入图片,即可以通过简单的Pipeline调用
推理代码范例
from modelscope.pipelines import pipeline
pipe = pipeline('domain-specific-object-detection', 'IoT-Edge/Gesture_Detect', model_revision='v1.0.0')
output = pipe('./0.jpg')
print(output)
Clone with HTTP
git clone https://www.modelscope.cn/IoT-Edge/Gesture_Detect.git
评论