一种基于kinect的全息虚拟试衣系统技术方案

技术编号:12467359 阅读:118 留言:0更新日期:2015-12-09 17:02
本发明专利技术公开了一种基于kinect的全息虚拟试衣系统,包括投影仪、全息投影幕、设置在全息投影幕上用于实时获取人体骨骼空间数据以及rgb彩色图像数据的kinect体感摄像机和安装有虚拟试衣程序的PC端;kinect体感摄像机及投影仪均通过接口与PC端相连接;虚拟试衣程序用于读取kinect体感摄像机传输来的骨骼空间数据,实现用户骨骼跟踪;然后基于弹簧-质点模型的服装仿真算法仿真出服装三维模型;最后将所述服装三维模型与用户骨骼绑定,生成用于体现服装试穿在用户身上的服装三维试穿模型;投影仪用于将虚拟试衣程序实时构建的服装三维试穿模型投影到全息投影幕上。本发明专利技术系统稳定性好、用户体验性好、真实感强。

【技术实现步骤摘要】

本专利技术涉及一种基于kinect的全息虚拟试衣系统,属于虚拟试衣

技术介绍
在通信、网络日益发达的今天,电子商务俨然成为我们生活中不可分割的一部分。服装在电子商务交易中扮演着很重要的角色,但是线上交易的服装却面临无法试穿的尴尬情况。随着电子商务技术的发展,互联网成为服装业一个重要的销售渠道,因此推动了网上虚拟试衣系统的研究。虚拟试衣系统是一种应用于服装电子商务的实时交互平台,对促进服饰行业、鞋类、箱包以及化妆品等行业发展具有很大作用。然而,现有的虚拟试衣技术并不成熟,系统尚不完善。国内的的虚拟试衣多为2D系统,通过把服装的平面贴图覆盖到模特的照片上来完成试衣。此类系统缺乏真实性,很难达到理想的效果。为了解决这个问题,很多公司、研究机构都对虚拟试衣进行了研究,现在市面上的的虚拟试衣系统主要分为两种:1.基于2D图像的虚拟试衣主要面向客户,因为软件小,便宜甚至免费,但是用户体验差。随着计算机技术的发展和生活节奏的不断加速,网络虚拟系统日趋成熟化和大众化,而顾客在购买之前如果能通过网络试衣平台选择自己合穿的,便可提高网络购衣水平,因此网络试衣间研究近年来都很火,技术发展也较成熟,比如My Virtual Model就是比较著名的虚拟试衣网站。但是,考虑到服务器端所能承受最大计算量有限,因此,服务器端这种试衣软件,更多采用2D图片匹配人体,很难采用真实3D模型匹配技术,真实感比实体试衣镜更差,当然,以此带来的用户体验性,就更差了。2.基于3D图形的虚拟试衣主要面向大型商城,原因是成本高昂,不是普通商店或是家庭用户能使用的,目前在淘宝上最便宜的一套虚拟试衣系统是18000元。这种方式的试衣能给用户更加直观的感受,但目前,技术上衣服和人体匹配效果不理想,试衣服动作限制较大。这种试衣镜技术虽然先进,但却不适合平民个体,所以暂时市场较小,技术发展突破也比较迟缓。综上所述,现有虚拟试衣系统主要存在几个不足:一.采用2D图片设计,真实感差;二.人体模型大多用数据库模型匹配,用户体验性少;三.人机交互还不够自然,系统不够稳定。
技术实现思路
针对现有技术存在的不足,本专利技术目的是提供一种基于kinect的全息虚拟试衣系统,本专利技术系统稳定性好、用户体验性好、真实感强。为了实现上述目的,本专利技术是通过如下的技术方案来实现:本专利技术的一种基于kinect的全息虚拟试衣系统,包括投影仪、全息投影幕、设置在全息投影幕上方用于实时获取用户骨骼空间数据以及RGB彩色图像数据的kinect体感摄像机和安装有虚拟试衣程序的PC端;kinect体感摄像机及投影仪均通过接口与PC端相连接;虚拟试衣程序首先读取kinect体感摄像机传输来的用户骨骼空间数据、RGB彩色图像数据,将RGB彩色图像数据在背景图层显示,并根据用户骨骼空间数据逐帧计算出用户骨骼点之间的相对位置以及用户骨骼之间相成的角;然后根据用户选择加载添加了服装仿真属性(包括重力、距离、刚度)的服装三维模型,同时将用户骨骼点之间的相对位置赋值给对应骨骼的空间位置,以控制服装蒙皮骨骼位置;将用户骨骼之间相成的角赋值给对应骨骼的空间旋转角度,以控制对应服装蒙皮骨骼旋转角度,得到服装模型,由此实现服装模型与用户动作同步,即实现服装与用户骨骼跟踪;最后在unity 3D将服装模型渲染显示在仿真图层,并将仿真图层叠加在背景图层之上,生成虚拟试衣效果;投影仪用于将虚拟试衣程序实时构建的虚拟试衣效果投影到全息投影幕上,从而实时显示试衣效果。控制服装蒙皮骨骼位置时,首先将用户骨骼点之间的相对位置根据屏幕大小进行等比放大(即乘上对应屏幕大小数据),然后将放大后用户骨骼点之间的相对位置赋值给服装三维模型的服装蒙皮骨骼相对位置。控制服装蒙皮骨骼旋转角度时,首先获取上面放大后用户骨骼点之间的相对位置,将该骨骼的相对位置与其父骨骼的相对位置在同一平面中进行映射,在同一笛卡尔坐标系中计算出该骨骼与其父骨骼在二维平面的正切值,根据计算的正切值求出两骨骼与该二维平面的夹角,将夹角赋值给服装三维模型的服装蒙皮骨骼旋转角度,以实现服装骨骼旋转与人体骨骼旋转跟踪。上述投影仪安装在天花板上,且投影仪的镜头与天花板呈15°?30°夹角;投影仪与全息投影幕之间的直线距离为2?2.5米。全息虚拟试衣系统使用时,用户站立于全息投影幕正前方0.5?IM米处。上述全息投影幕包括透明板和贴合在透明板上的浅灰膜。上述透明板为亚克力板或者玻璃板。上述投影仪的亮度不小于2000流明,且分辨率不低于1024*768。上述PC端与kinect体感摄像机通过USB接口相连接;PC端与投影仪通过VGA接口相连接。本专利技术充分利用了性价比高、效果好的kinect体感摄像头,利用廉价的全息投影膜、全息投影仪实现高端广告机效果;软件与硬件采用较为灵活的展示方案,减小系统体积;本专利技术在平台以及功能进行创新,为用户提供较为真实的虚拟试衣效果。【附图说明】图1为本专利技术的基于kinect的全息虚拟试衣系统整体布局图;图2为本专利技术的基于kinect的全息虚拟试衣系统整体软件模块图;图3为本专利技术的基于kinect的全息虚拟试衣系统整体平台模块图;图4为本专利技术的基于kinect的全息虚拟试衣系统工作流程图。【具体实施方式】为使本专利技术实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合【具体实施方式】,进一步阐述本专利技术。kinect三维扫描技术。kinect是一种3D体感摄影机,它具备即时动态捕捉、影像辨识、麦克风输入、语音辨识、社群互动等功能,同时,它向开发者提供了原始感测数据流,骨架追踪等接口。本系统中通过kinect直接取得距离传感器、彩色摄影机以及四单元麦克风数组的原始数据流,以该数据流为基础进行开发,并且通过骨架跟踪追踪kinect视野内一位或二位用户的骨架影像,采集人体骨骼空间数据。在人体数据采集过程中运用深度相机kinect进行人体的三维扫描控制,该系统利用kinect对人体进行非接触式外形扫描,得到点云数据,在经过处理可实现扫描物体的快速成型,呈现三维实体造型,再由深度转化算法,计算出人体的大概尺寸,生成相匹配的3D模型。本项目通过真实估计用户的体格尺寸,并对3D衣物进行等比例的放大缩小,通过对人体的实时跟踪,使得3D衣物逼真的“穿在”人体上,这是该系统设计关键环节。unity3D+kinect 系统开发。unity是由Unity Technologies开发的一个让玩家轻松创建诸如三维视频游戏、建筑可视化、实时三维动画等类型互动内容的多平台的综合型游戏开发工具,是一个全面整合的专业游戏引擎。本系统借助unity3D+kinect进行图形界面开发,并对服装三维模型进行渲染,以达到真实效果,提高用户体验性。衣料仿真算法。基于3D的衣料质点-弹簧模型算法,是试衣用户体验的重要一点。本专利技术专利对现有衣料仿真算法进行优化,基于物理的造型方法,对复杂的弹性变形过程使衣料尽可能的接近真实衣料。进行仿真。以实现当用户旋转时候,衣服在跟着旋转的时候,还兼顾衣物物理特性对三维图形进行变形,达到逼真的效果。全息投影技术。全息投影技术也称虚拟成像技术,是利用干涉和衍射原理记录并再现物体真实的三维图像的技术。而全息投影技术的核心即全息投影膜,全息投本文档来自技高网
...

【技术保护点】
一种基于kinect的全息虚拟试衣系统,其特征在于,包括投影仪、全息投影幕、设置在全息投影幕上方用于实时获取用户骨骼空间数据以及RGB彩色图像数据的kinect体感摄像机和安装有虚拟试衣程序的PC端;所述kinect体感摄像机及投影仪均通过接口与PC端相连接;所述虚拟试衣程序首先读取kinect体感摄像机传输来的用户骨骼空间数据、RGB彩色图像数据,将所述RGB彩色图像数据在背景图层显示,并根据所述用户骨骼空间数据逐帧计算出用户骨骼点之间的相对位置以及用户骨骼之间相成的角;然后根据用户选择加载添加了服装仿真属性的服装三维模型,同时将所述用户骨骼点之间的相对位置赋值给对应骨骼的空间位置,以控制服装蒙皮骨骼位置;将所述用户骨骼之间相成的角赋值给对应骨骼的空间旋转角度,以控制对应服装蒙皮骨骼旋转角度,得到服装模型,由此实现服装模型与用户动作同步,即实现服装与用户骨骼跟踪;最后在unity 3D将服装模型渲染显示在仿真图层,并将所述仿真图层叠加在背景图层之上,生成虚拟试衣效果;所述投影仪用于将虚拟试衣程序实时构建的虚拟试衣效果投影到全息投影幕上,从而实时显示试衣效果。

【技术特征摘要】

【专利技术属性】
技术研发人员:童晶朱红强黄思钰倪淑雅柳旭
申请(专利权)人:河海大学常州校区
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1