zh

姓名格式错误

公司名称格式错误

数据堂严格遵守用户隐私条款,您所填写的信息我们会严格保密,请放心填写~

人体关键点检测数据集介绍

来源: 数据堂

一、COCO数据集

http://cocodataset.org/

 

人体关键点标注,训练集和验证集数据整体概况

 

人体关键点标注,最多标注全身的17个关键点,平均一幅图像2个人,最多有13个人

 

 

 

人体关键点标注,每个人体关键点个数的分布情况,其中11-15这个范围的人体是最多的,有接近70000人,6-10其次,超过40000人,后面依次为16-17,2-5,1.

 

K(BLOHKM) = (20000*13 +9*40000+4*70000+1*25000)/150000 = 6.2

 

关于图像复杂性的基准,两个方面:遮挡(不可见)和crowded(密集)

 

对于前一种类型遮挡,很难有针对性的办法去解决,最好的办法也就是使用更多的数据和更强的feature。但是对于后一种类型的遮挡,现在的pipeline其实并没有很好充分利用信息

 

 

二、MPII数据集

 

http://human-pose.mpi-inf.mpg.de/#download

 

人体关键点标注,全身16个关键点,人数:train28821test11701,有409种人类活动

 

人体关键点标注,标注数据的格式:使用matstruct格式,对于人体关键点检测有用的数据如下:

 

行人框:使用centerscale标注,人体尺度关于200像素高度。也就是除过了200

 

16个关键点坐标及其是否可见的信息

 

不相关的有:

 

     头部包围框

 

     图像活动分类

 

     视频索引和帧信息

 

支持多人和单人模式,单人模式表示:已知行人框(centerscale),排除多人相互接近的情况

 

 

三、关于数据集的加载和预处理

 

可以参考微软的simplebaseline那篇论文以及最新的CVPR论文Deep High-Resolution Representation Learning for Human Pose Estimation的开源code,很好读的代码,pytorch写的,同时有cocompii的格式。

 

https://github.com/microsoft/human-pose-estimation.pytorch/tree/master/lib/dataset

 

https://github.com/leoxiaobin/deep-high-resolution-net.pytorch

 

————————————————

本文转载自:CSDN博主「baolinq

原文链接:https://blog.csdn.net/baolinq/article/details/90447518

142

283