《Simple Baselines for Human Pose Estimation and Tracking》阅读笔记

匿名 (未验证) 提交于 2019-12-02 23:04:42
版权声明:转载请注明出处 https://blog.csdn.net/Fire_Light_/article/details/85306668

《Simple Baselines for Human Pose Estimation and Tracking》阅读笔记

《Simple Baselines for Human Pose Estimation and Tracking》阅读笔记

原文链接:https://arxiv.org/pdf/1804.06208.pdf

这篇文章出自MSRA,主要做了两个工作,一个是姿态检测(即人体的关键点检测),第二个是基于姿态检测进行人体运动轨迹追踪。

姿态检测



但是本文的方法在COCO关键点检测的任务上比CPN,Hourglass得到了更高的AP,如图:


文中解释为“ the performance difference could come from implementation difference”,也就是本文可能在调参、数据增强等方面可能做得很好,才有这样的结果。比如文中提到使用原图和翻转过的图片同时测试,以及最终结果会由Heatmap的最大值点向第二大值点进行一些偏移等技巧(看起来有点像做比赛^ ^),其他我就不一一翻译了,感兴趣的可以直接查看原文。

轨迹追踪


文中先介绍了ICCV’17 PoseTrack Challenge的优胜者解决多人轨迹追踪的一种算法,简单来说就是使用MaskRcnn来进行人的检测,在视频第一帧中每个检测到的人给一个id,然后之后的每一帧检测到的人都和上一帧检测到的人通过某种度量方式(文中提到的是计算检测框的IOU)算一个相似度,将相似度大的作为同一个id,没有匹配到的分配一个新的id。
本文提出的方法保留了这一方法的主要流程,并且在此之上提出了两点改进:

二是使用 Object Keypoint Similarity (OKS)代替检测框的IOU来计算相似度。这是因为当人的动作比较快时,用IOU可能并不合理。
OKS是关键点距离的一种度量方式,计算方式如下:

文中提出的新的相似度计算方式具体是使用光流法计算某一帧的关键点会出现在的另外一帧的位置,然后用这个计算出来的位置和这一帧检测出来的关键点之间计算OKS,以此作为两帧之间的不同人的相似度值。

下图是和其他工作的对比:

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!