个人实验室

PersonLab:使用自下而上、基于零件的几何嵌入模型进行人体姿势估计和实例分割。提出了一种无盒自底向上的方法,用于多人图像中人物的姿态估计和实例分割。提出的PersonLab模型通过基于零件的建模来处理语义级推理和对象部件关联。我们利用一个关键点来预测他们的关键点。此外,我们提出了一个部分诱导的几何嵌入描述符,它允许我们将语义人物像素与其对应的人物实例相关联,从而实现实例级的人物分割。我们的系统基于一个完全卷积的体系结构,允许有效的推理,运行时基本上独立于场景中的人数。我们的系统仅使用COCO数据进行训练,单尺度推理的COCO-test-dev-keypoint的平均精度为0.665,多尺度推理的平均精度为0.687,明显优于以往所有自下而上的位姿估计系统。我们也是第一个在COCO实例分割任务中报告person类竞争结果的自底向上方法,实现了person类的平均精度为0.417