【技术实现步骤摘要】
一种结合视频智能分析的在线体感自适应交互的方法
本专利技术属于视频智能分析
,具体涉及一种结合视频智能分析的在线体感自适应交互的方法。
技术介绍
体感自适应交互是一种直接利用肢体动作、声音、眼球转动等方式与周边的装置或环境互动的交互方式,相较于以往的界面交互方法,图形用户界面中鼠标键盘的传统控制方式,使用肢体动作与系统进行直接交互,其自然的交互机制使系统对用户的操作意图拥有更好的感知性,通过看得见、摸得着的实体交互设计帮助使用者与系统进行交流,从而得到更加仿真的感受;但是传统的体感自适应交互方法只能进行简单的肢体体验,最多也只能得到最简单图像信息,无法根据实际需要得到更加准确的数据信息,完全凭借肉眼对图像信息进行数据判断,从而导致所得结论的偏差,使体感自适应交互的实用性大大下降,同时,长时间进行图像采集后,这些图像信息中除了有用图像外,还会产生大量对数据分析没有帮助的无用图像,这些无用图像与有用图像无法被进行分类,不仅为后期图像提取带来很大的不便,也会占用大量的储存空间,导致数据保存模块的负荷加大。r>
技术实现思路
...
【技术保护点】
1.一种结合视频智能分析的在线体感自适应交互的方法,包括体感交互模块、视频分析模块和数据保存模块,其特征在于:包括以下步骤:/nS1、将用于原始图像采集的摄像头对准自身,并进行初步校准以确保设备无故障;/nS2、通过摄像头动态捕捉以获取原始图像,测量到人物和背景物件,并将原始图像中的颜色空间进行转化,再通过阀值选择法提取转化后的图像肤色信息;/nS3、利用骨架提取技术,以机器学习人类行为样本为基础,再对人体关键骨架节点进行识别,从而将人物和背景物件分离开来,实现前景分割并得到预处理图像;/nS4、通过处理器对得到的预处理图像进行动作分析校准,得到校准图像;/nS5、利用PC ...
【技术特征摘要】
1.一种结合视频智能分析的在线体感自适应交互的方法,包括体感交互模块、视频分析模块和数据保存模块,其特征在于:包括以下步骤:
S1、将用于原始图像采集的摄像头对准自身,并进行初步校准以确保设备无故障;
S2、通过摄像头动态捕捉以获取原始图像,测量到人物和背景物件,并将原始图像中的颜色空间进行转化,再通过阀值选择法提取转化后的图像肤色信息;
S3、利用骨架提取技术,以机器学习人类行为样本为基础,再对人体关键骨架节点进行识别,从而将人物和背景物件分离开来,实现前景分割并得到预处理图像;
S4、通过处理器对得到的预处理图像进行动作分析校准,得到校准图像;
S5、利用PC端将所得到的校准图像进行采集;
S6、将采集到的校准图像进行智能分析,并将其转化成系统可以识别的代码,然后将有用的图像提取出来;
S7、将提取后的有用图像结合实际用途加以处理,并通过展示设备展示出来,同时把有用图像传输至数据保存模块进行数据保存;
S8、将剩余的无用图像进行底码压缩处理,并传输至数据保存模块进行数据保存。
2.根据权利要求1所述的一种结合视频智能分析的在线体感自适应交互的方法,其特征在于:所述S2中,原始图像中的颜色空间在进行转化的时候,首先从原始图像中提取RGB色彩肢体图像,再将RGB色彩肢体图像转换成YUV色彩编码。
3.根据权利要求1所述的一种结合视频智能分析的在线体...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。