Fig.31TUM KITCHEN数据集为行为识别的混合矩阵。矩阵中左手(左列)和右手(右列)标签,序列1-1(上边一行),1-2(下边一行)。序列1-1经过序列1-0训练,序列1-2经过序列1-0和101训练。
41 / 47
Fig.32交叉目标行为识别(目标S03的序列1-7)的混合矩阵。动作模型经过目标S01的序列1-0和1-5训练。矩阵表示左手(左)和右手(右)标签。 7.3 其他序列
我们还使用了几组其他挑战性序列评估我们的算法。尤其值得注意的一组序列是关于模拟人进出汽车的人体工程学的研究案例。近似客舱的模拟包括驾驶座,armatures,方向盘,脚踏板,gear shift和钢筋做成的周围骨架。Mock-ups非常适宜从不同角度记录人体目标。但是,场景特点有较多遮挡(四个摄像机视角中同一时间有2个有高达50%的遮挡),因此基于形状的观察模型不用额外的环境模型跟踪失败(Fig.2)。用我们的分层环境模型,我们能够通过整个序列以很好精度跟踪目标(Fig.33)。
42 / 47
Fig.33 汽车mock-up序列(2500帧或100秒)。每列是一个摄像机视角(展示了4个中的3个)注意环境闭塞,尤其在第二和第三列。
另一个有趣的序列是户外直接在阳光下一个运动员锻炼的情景(Fig.34)。观察动作是完成突然快速动作,必须以60HZ记录避免动作模糊。以全高清晰度Full HD处理场景(1920*1080).评估动作非常好的匹配观察对象,除了在序列早期左臂跟踪丢失。调查后,我们注意到序列早期左臂与身体紧密贴合。由于摄像机放置次优化(3个中的2个拍摄的几乎完全相反),左臂在任何前景掩模中都不可见。因此,跟踪者对手臂动作做出了未知评估,一旦手臂在一个快速挥动动作中突然重新出现不能恢复手臂位置。可以看出实质上至少需要三台摄像机并且没
43 / 47
有直接相反的视角来解决来自于人体自身遮挡的模糊问题。另一方面,阳光照射出的地面上的影子没有对我们的跟踪者造成干扰,它们被完美的从人体轮廓中分离了。
Fig.34 户外序列(580帧或10秒)。动作极快,须以60HZ记录。评估动作逼真且平滑,除了跟踪序列初期左臂跟踪丢失。这归因于摄像机的不当放置,三个摄像机中的两个几乎摄像完全相反。导致了与身体接近时左臂姿势模糊的问题无法解决。 8 结论
我们提出了无标记人体姿势跟踪和行为识别系统,能够高精度评估复杂人体动
44 / 47
作。它使用高达51个自由度的基于人体测量的人体模型,提供人体形状和姿势的细节呈现,并为了跟踪的高效使用进行了优化。我们已经展示了如何实现可靠精确的跟踪,即使不限制动作模型,和高尺度状态空间。我们提出了通过随机优化分层粒子滤波的概念,讨论了多样性采样策略的重要性。最后,我们的系统能够通过随着时间学习特定环境和任务动作自调整,有助于改善跟踪表现,并可用来做基于模型的行为识别基础,以得到关于人的意图的更高水平推导。 开始问题需要自动初始化,以及跟踪系统恢复失败。这个问题的解决办法分为两个步骤。首先,用分类器侦测适于初始化的各种关健姿势。第二,侦测到的关键姿势知识用来作为粗略初始化,作为优化起点。注意我们已经为我们的人体模型找到的形状参数的统计集非常适于自动参数评估。最后的步骤朝着我们系统的交互式使用根据实时表现进一步优化。我们主要通过并行粒子评估完成这个目标(如用图形处理单元GPU).
将来的工作包括通过传感器技术的使用,如time-of-flight摄像机或结构灯光立体声等可提供场景深度,进行视角调整。这样也可以避免我们的主要错误来源,由于灯光条件或衣服难以从背景中区分,导致我们的观察模型中前景和背景的分割问题。 参考文献:
45 / 47