输入一张人物图像,端到端检测全身133点关键点,输出人体框和对应的全身关键点,包含68个人脸关键点、42个手势关键点、17个骨骼关键点和6个脚部关键点。 该任务采用自顶向下的全身关键点检测框架(如下图),通过端对端的快速推理可以得到图像中的人体关键点。其中全身关键点模型基于HRNet的backboe,充分利用多分变率的特征融合,良好支持日常人体姿态,具有SOTA的检测精度。 使用方式: 使用范围: 目标场景: 在ModelScope框架上,提供输入图片,即可以通过简单的Pipelie调用来完成人体关键点检测任务。 输入图像存在人体严重残缺或遮挡的情形下,模型会出现人体或点位误检和漏检的现象。 高度运动模糊的情形下,模型会出现人体或点位误检和漏检的现象。 模型训练时采用帧间稳定性优化,但在视频数据上,仍然建议采用Oe-Euro-Filter进行帧间点位平滑后处理。 训练数据使用COCO公开数据集(https://cocodataset.org/#dowload)。 该模型采用自顶向下的人体关键点检测流程,模型推理分为人体检测和关键点检测两个步骤。 COCO数据集上模型指标:全身133点关键点检测模型
133点人体关键点
模型描述
使用方式和范围
如何使用
代码范例
# umpy >= 1.20
from modelscope.pipelies import pipelie
from modelscope.utils.costat import Tasks
model_id = 'damo/cv_hretw48_huma-wholebody-keypoit_image'
wholebody_2d_keypoits = pipelie(Tasks.huma_wholebody_keypoit, model=model_id)
output = wholebody_2d_keypoits('https://modelscope.oss-c-beijig.aliyucs.com/test/images/keypoits_detect/img_test_wholebody.jpg')
# the output cotais keypoits ad boxes
prit(output)
模型局限性以及可能的偏差
训练数据介绍
模型推理流程
人体检测
推理
人体关键点检测
预处理
推理
后处理
数据评估及结果
测评指标
Method
输入大小
Body AP
Body AR
Foot AP
Foot AR
Face AP
Face AR
Had AP
Had AR
384x288
0.742
0.807
0.705
0.804
0.840
0.892
0.602
0.694
模型效果
引用
@IProceedigs{Su_2019_CVPR,
author = {Su, Ke ad Xiao, Bi ad Liu, Dog ad Wag, Jigdog},
title = {Deep High-Resolutio Represetatio Learig for Huma Pose Estimatio},
booktitle = {Proceedigs of the IEEE/CVF Coferece o Computer Visio ad Patter Recogitio (CVPR)},
moth = {Jue},
year = {2019}
}
点击空白处退出提示










评论