本材料旨在确保学术和技术工作的及时传播。版权及其所有权利由作者或其他版权所有者保留。所有复制此信息的人都应遵守每个作者的版权所引用的条款和限制。在大多数情况下,未经版权持有人的明确许可,这些作品不得转载。



视频中人体姿态估计的流动ConvNets

T.Pfister,J.Charles,A.齐瑟曼
2015年IEEE国际计算机视觉会议
下载出版物:pfister15a.pdf[8.9Mo] 
这项工作的目标是视频中的人体姿势估计,其中有多个帧可用。我们研究了一种ConvNet架构,该架构能够通过使用光流跨多个帧组合信息,从时间上下文中获益。为此,我们提出了一种具有以下新颖性的网络架构:(i)一个比先前研究的回归热图更深的网络;(ii)学习隐式空间模型的空间融合层;(iii)光流用于对齐来自相邻帧的热图预测;以及(iv)最终参数池层,该层学习将对齐的热图组合成池置信度图。我们表明,该体系结构优于许多其他体系结构,包括仅在输入层使用光流的体系结构、直接回归关节坐标的体系结构,以及在不进行空间融合的情况下预测热图的体系结构。新体系结构在三个视频姿势估计数据集(包括Wild数据集中极具挑战性的Poses)上的表现远远超过了目前的技术水平,并且优于在单图像FLIC基准上不使用图形模型的其他深度方法(以及Chen&Yuille和Tompson等人在高精度区域的表现)。

其他材料:


链接:


BibTex参考:

@在诉讼中{Pfister15a,author=“托马斯·普菲斯特、詹姆斯·查尔斯和安德鲁·齐瑟曼”,title=“视频中人体姿势估计的流动ConvNets”,booktitle=“IEEE计算机视觉国际会议”,year=“2015”,}

数据库中的其他出版物: