当前位置: 首页 > 专利查询>浙江大学专利>正文

一种基于视频数据的人群行为合成方法技术

技术编号:2944768 阅读:181 留言:0更新日期:2012-04-11 18:40
本发明专利技术公开了一种基于视频数据的人群行为合成方法。提出了一种从行人视频数据中提取出典型行人速度场,然后基于这些速度场来合成人群行为动画的方法。该方法包括以下步骤:行人视频采集;典型行人速度场提取;交互式人群速度场设计;人群行为动画实时合成。本发明专利技术具有交互工作量小,仿真结果逼真,适用情形广泛等特点。

【技术实现步骤摘要】

本专利技术涉及计算机动画的领域,尤其涉及一种基于视频数据的人群行为合 成方法。
技术介绍
对虚拟人群的研究是近几年来的研究热点,不同领域的学者有着不同的关 注点,比如在电影和游戏行业中关注于如何仿真出真实人群的智能行为和视觉 感受;在虚拟环境研究中关注于如何向虚拟环境中添加虚拟人群来增加虚拟环 境的真实感和沉浸感;在消防安全、城市规划、建筑设计领域中关注于如何建模虚拟人群的特定行为,从而应用于消防设施设置、建筑安全度和舒适度评价 等方面。在虚拟人群的各个研究方向上存在着一个共同问题如何对虚拟人群的运 动路径进行规划。人群运动的复杂性和微妙性,造成人群路径规划一方面需要 考虑环境约束,另一方面还需考虑人群之间的交互影响。目前研究人员提出了 各种人群路径规划方法大致上可以分为2类基于多智能体(multiple agent) 群体表示的和基于动态隐式场(dynamic potential fields)的群体表示 0 基于多智能体的群体表示中每个虚拟人都具有单独的内部状态、决策参数和仿 真参数,直接模拟了真实人群中每一个人的路径规划过程,通过调整各种参数 可以产生复杂而逼真的群体行为;但是基于多智能体的群体表示也同时具有一 些固有的缺陷,比如行为规则设置困难,由全局路径规划计算开销大而导致的 仿真人数不能过多,局部路径规划而导致的虚拟人运动路径不真实等。基于动 态隐式场的群体表示思想来源于流体力学领域,通过将人群流动表示为一个连 续的流场,再使用偏微分方程来控制这个流场的行为,就可以将虚拟人群的全 局路径规划和局部碰撞避让统一起来,从而使得虚拟人群的运动更加真实,但 是基于动态隐式场的群体表示也失去了为每一个虚拟人指定目标和属性的灵活 性。尽管基于多智能体和基于动态隐式场两种方法都可以产生逼真的群体运 动,但是均需要设置相当多的经验参数。Musse SR等人于2007年提出了一 种从人群流动的视频数据中提取出运动路径,然后基于这些运动路径例子数据 来产生虚拟人群运动路径的方法。该方法具有无需用户交互设置仿真参数,合成的群体运动路径逼真的优点。但是该方法局限之处为仿真出的虚拟人群所在 场景必须与原始人群流动视频数据所在场景相同。.Funge, J., X. Tu, and D. Terzopoulos, Cognitive modeling: knowledge, reasoning and planning for intelligent characters . In: Proceedings of the 26th annual conference on Computer graphics and interactive techniques, LouisianaStateUniversity, BatonRouge. ACM Press, 1999:29-38.. Colombo, R. M. and M. D. Rosini, Pedestrian flows and nonclassical shocks . Mathematical Methods in the Applied Sciences, 2005, 28(13) :1553-1567..Musse, S. R. , et al., using computer vision to simulate the motion of virtual agents . Computer animation and virtual worlds, 2007, 18(2) :83-93.
技术实现思路
本专利技术的目的在于提供。本专利技术采用的技术方案包括以下步骤(1) 行人视频采集;(2) 典型行人速度场提取;(3) 交互式人群速度场设计;(4) 人群行为动画实时合成。所述的行人视频采集对行人流动场景的分析归纳,设计了 8组人群流动 视频采集实验。实验条件包括摄像机配置、摄像机位置、场地条件、人员条件、 实验时间和行走速度。所述的典型行人速度场提取对行人流动实验中的行人帽子进行颜色检测, 采用二值化方法处理图象,利用阈值以及形态学操作来检测出每个行人的当前 位置,采用行人运动路径跟踪算法得到行人的运动路线,进一步得到各种情况 的速度场信息。所述的交互式人群速度场设计通过"增加模板场"可以将60个人群速度 场数据中任意一个速度场加载到可用速度场列表中,选中当前要使用的速度场 之后,用户就可以在虚拟环境的二维地图上指定任意一个矩形区域受该基本速 度场的影响,基本速度场的大小固定,而用户指定矩形区域的大小则可以任意 变化。所述的人群行为动画实时合成将虚拟人的运动行为分为3个层次行为 选择层,控制层,运动合成层,虚拟人的概要寻径工作完成在最上面的行为选 择层;虚拟人群沿规划好的概要运动路径运动的同时如何避让各种静态、动态 障碍物则在控制层完成;最后在运动合成层中使用循环播放的骨骼皮肤动画为 每一个虚拟人合成出逼真的人体行走动画。本专利技术具有的有益效果是该方法具有交互工作量小,仿真结果逼真,适 用情形广泛等特点。 附图说明图1是基于行人视频数据的交互式人群行为合成方法流程图。 图2是推导速度场图。 图3是八组实验实施过程示意图。 具体实施例方式本专利技术的提供,如图1所示的流程 图,包括以下步骤(1) 行人视频采集;(2) 典型行人速度场提取;(3) 交互式人群速度场设计;(4) 人群行为动画实时合成;所述的行人视频采集,根据对行人流动场景的分析归纳,设计了 8组人群 流动视频采集实验,如图3所示。实验条件如下 摄像机配置Sony dsr pdxl0p,广角镜,图像分辨率720*576。摄像机位置人群行走场地正上方10米处。 场地条件场地1为10米*4米的长方形区域,如图1 (a)所示;场地2为8米*8米的正方形区域,如图l (b)所示。人员条件40人均分为编号为1, 2, 3, 4的4个组。其中第l组着红色帽子,第2组着蓝色帽子,第3组着紫红色帽子,第4组着绿色帽子。每人必须穿白色或黑色外套。实验时间每组3到5分钟。 行走速度常速为一秒两步,快速为一秒三步,慢速为一秒一步。每组实验的实施过程如所示,大体上都可以分为3个阶段①每组人依序 进入场地并不断循环从而加入实验,需时15秒钟②各组人以规定速度进出场地 并形成稳定的循环状态,持续3至4分钟③每组人依序离开场地并不再循环从而离开实验,需时15秒钟。所述的典型行人速度场提取,对行人流动实验中的每个行人戴上了特定颜 色的帽子,并且要求行人着装不能出现彩色,因此在图像帧中检测行人的位置 只需对待检测图像I的r、 g、 b分量构成的灰度图像Ir, Ig, Ib分别作二值化 处理得到Ir', Ig', Ib',其中二值化处理时所采用的阈值根据待检测行人所带 帽子的颜色而定,比如为红色帽子时,Ir到Ir'要求阀值为大于150, Ig到 Ig,要求阀值小于100, Ib到Ib,要求阀值小于100。得到二值化的图像Ir', Ig,, Ib,之后,三张图像一起做一次逐位置的求交运算得到IA,对IA作形态 学上的开操作来去掉小区域的噪声点,然后再做一次形态学上的膨胀操作来扩 大被开操作运算变小的有效区域,从而得到最终本文档来自技高网
...

【技术保护点】
一种基于视频数据的人群行为合成方法,其特征在于包括以下步骤:(1)行人视频采集;(2)典型行人速度场提取;(3)交互式人群速度场设计;(4)人群行为动画实时合成。

【技术特征摘要】

【专利技术属性】
技术研发人员:孙守迁王鑫侯易
申请(专利权)人:浙江大学
类型:发明
国别省市:86[]

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1