一种基于人机交互的训练信息采集方法及系统技术方案

技术编号:34843036 阅读:19 留言:0更新日期:2022-09-08 07:40
本发明专利技术涉及健身技术领域,具体提供了一种基于人机交互的训练信息采集方法及系统,至少采用三个声波发射单元及一个声波接收单元,其中,声波接收单元位于穿戴设备上,所述采集方法包括以下步骤:所述声波发送单元向声波接收单元发送检测声波,同时发送声波发送时的时钟信息;所述声波接收单元接收检测声波并记录声波接收时的时钟信息;基于声波发送时的时钟信息及声波接收时的时钟信息生成穿戴设备的位置信息;基于训练时间内穿戴设备的位置信息生成用户训练动作信息;本发明专利技术实施例公开的基于人机交互的训练信息采集方法对于环境要求低,具有采集精度高,轨迹还原度高的优点。轨迹还原度高的优点。

【技术实现步骤摘要】
一种基于人机交互的训练信息采集方法及系统


[0001]本专利技术涉及健身
,尤其涉及一种基于人机交互的训练信息采集方法及系统。

技术介绍

[0002]随着人们对于生活品质的追求,健身越来越流行化,部分健身人员会选择购买健身器材在家里健身。
[0003]随着动作捕捉技术发展,部分健身设备引入体感技术,通过图像采集技术采集用户健身动作的图像,通过视觉算法还原用户健身动作,从而对用户健身时的动作进行评价,但是,图像采集装置需要良好的光线环境,在光线环境差的时候无法精确的还原用户健身动作,平行于图像采集设备的光轴的图像,例如用于在面对图像采集设备进行拳击动作时,健身器材很难还原其轨迹,从而造成数据还原不准确,基于上述问题,本申请提出了一种基于人机交互的训练信息采集方法及系统。

技术实现思路

[0004]本专利技术的目的在于提供一种基于人机交互的训练信息采集方法及系统,以解决目前的健身器材的信息采集装置难以还原用户动作轨迹的问题。
[0005]为实现上述目的,本专利技术提供如下技术方案:
[0006]一种基于人机交互的训练信息采集方法及,至少采用三个声波发射单元及一个声波接收单元,其中,声波接收单元位于穿戴设备上,所述采集方法包括以下步骤:
[0007]所述声波发送单元向声波接收单元发送检测声波,同时发送声波发送时的时钟信息;
[0008]所述声波接收单元接收检测声波并记录声波接收时的时钟信息;
[0009]基于声波发送时的时钟信息及声波接收时的时钟信息生成穿戴设备的位置信息;
[0010]基于训练时间内穿戴设备的位置信息生成用户训练动作信息。
[0011]进一步的,所述声波发送单元向声波接收单元发送检测声波前,校对所述声波发送单元及声波接收单元的时钟以同步两者的时钟信息。
[0012]优选的,生成穿戴设备的位置信息的方法包括以下步骤:
[0013]获取三个声波发送单元在虚拟坐标系下的坐标;
[0014]基于公式(1)生成关于声波发送单元与声波接收单元关系的第一方程组,并求解第一方程组;
[0015](x0‑
x)2+(y0‑
y)2+(z0‑
x)2=d2;公式(1)
[0016]其中,x0、y0、z0为已知点的坐标值,即三个声波发送单元的坐标值;x、y、z为未知数,即声波接收单元的坐标值;d为声波发送单元与声波接收单元的距离;
[0017]基于声波接收单元与三个声波发送单元所在平面的位置关系判断第一方程组正解,生成声波接收单元在虚拟坐标系下的坐标值。
[0018]优选的,建立虚拟坐标系时,虚拟坐标系的原点位于其中一个声波发送单元的位置的投影点,虚拟坐标系的X轴和Y轴穿过另外两个声波发送单元所在的位置的投影点。
[0019]优选的,所述声波发送单元设置有四个,生成穿戴设备的位置信息的方法包括以下步骤:
[0020]获取声波发送单元与声波接收单元的时钟差及四个声波发送单元在虚拟坐标系下的坐标;
[0021]基于公式(2)生成关于声波发送单元与声波接收单元关系的第二方程组,并求解第二方程组;
[0022](x0‑
x)2+(y0‑
y)2+(z0‑
x)2=(d+Δt
×
v)2;公式(2)
[0023]其中,x0、y0、z0为已知点的坐标值,即三个声波发送单元的坐标值;x、y、z为未知数,即声波接收单元的坐标值;d为声波发送单元与声波接收单元的距离;Δt为声波发送单元与声波接收单元的时钟差;v为声波在空气中的传播速度;
[0024]基于声波接收单元与四个声波发送单元所在平面的位置关系判断第二方程组正解,生成声波接收单元在虚拟坐标系下的坐标值。
[0025]进一步的,所述声波接收单元设置有若干个,且所述声波接收单元通过穿戴设备固定连接于用户关节处,所述采集方法还包括以下步骤:
[0026]以各声波单元作为骨骼关节生成骨骼模型;
[0027]基于各声波单元的轨迹生成骨骼模型的动作;
[0028]基于骨骼模型的动作生成健身动作评价结果;
[0029]输出健身动作评价结果。
[0030]进一步的,基于骨骼模型的动作生成健身动作评价结果的具体方法包括以下步骤:
[0031]获取第一关节与相邻骨骼关节连线所形成的角的角度值,其中第一关节预选的骨骼关节;
[0032]对比角度值与预设的判断值的大小,基于公式(3)判断用户健身动作的完成度;
[0033][0034]其中,C表示完成度,即健身动作评价结果;a表示获取的骨骼关节连线所形成的角度值;A表示判断值。
[0035]进一步的,所述采集方法还包括以下步骤:
[0036]连接智能穿戴设备和健身器材;
[0037]获取用户生命体征数据和健身数据。
[0038]本专利技术还公开了一种基于人机交互的训练信息采集系统,所述系统包括:
[0039]声波发射单元,用于发出检测声波;
[0040]声波接收单元,用于接收检测声波;
[0041]数据处理单元,用于生成用户训练动作信息;
[0042]通信单元,用于建立声波发射单元、声波接收单元及数据处理单元的通信连接。
[0043]优选的,所述数据处理单元包括:
[0044]健身动作生成模块,用于生成骨骼模型;
[0045]健身动作评价模块,基于用户健身动作生成健身动作评价结果。
[0046]综上所述,本专利技术与现有技术相比具有以下有益效果:
[0047]1、本专利技术实施例公开的基于人机交互的训练信息采集方法通过声波通讯的方式测量位于穿戴单元的声波接收单元的位置以测量穿戴单元的位置,并基于穿戴单元的测量结果生成健身数据,相对于传统的视觉采集技术,本申请所公开的方法对于环境要求低,具有采集精度高,轨迹还原度高的优点。
[0048]2、本专利技术实施例公开的基于人机交互的训练信息采集方法还通过在用户关节处设置多个声波接收单元作为测量点,通过采集测量点的集合生成用户健身动作,并基于用户健身动作的参数评价用户健身动作的完成度,使得健身设备不仅可以采集用户体征数据,还可以评价用户的健身动作,提高健身效果。
附图说明
[0049]图1为本专利技术实施例公开的基于人机交互的训练信息采集方法的流程框图。
[0050]图2为本专利技术实施例公开的基于人机交互的训练信息采集方法中其中一个子程序的流程框图。
[0051]图3为图2公开的子程序中其中一种计算方法下声波发送单元及声波接收单元的位置示意图。
[0052]图4为图2公开的子程序中另一种计算方法下声波发送单元及声波接收单元的位置示意图。
[0053]图5为本专利技术实施例公开的基于人机交互的训练信息采集方法中另一个子程序的流程框图。
[0054]图6为图5公开的子程序中声波发送单元及声波接收单元的位置示意图本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于人机交互的训练信息采集方法,其特征在于,至少采用三个声波发射单元及一个声波接收单元,其中,声波接收单元位于穿戴设备上,所述采集方法包括以下步骤:所述声波发送单元向声波接收单元发送检测声波,同时发送声波发送时的时钟信息;所述声波接收单元接收检测声波并记录声波接收时的时钟信息;基于声波发送时的时钟信息及声波接收时的时钟信息生成穿戴设备的位置信息;基于训练时间内穿戴设备的位置信息生成用户训练动作信息。2.根据权利要求1所述的基于人机交互的训练信息采集方法,其特征在于,所述声波发送单元向声波接收单元发送检测声波前,校对所述声波发送单元及声波接收单元的时钟以同步两者的时钟信息。3.根据权利要求2所述的基于人机交互的训练信息采集方法,其特征在于,生成穿戴设备的位置信息的方法包括以下步骤:获取三个声波发送单元在虚拟坐标系下的坐标;基于公式(1)生成关于声波发送单元与声波接收单元关系的第一方程组,并求解第一方程组;(x0‑
x)2+(y0‑
y)2+(z0‑
x)2=d2;公式(1)其中,x0、y0、z0为已知点的坐标值,即三个声波发送单元的坐标值;x、y、z为未知数,即声波接收单元的坐标值;d为声波发送单元与声波接收单元的距离;基于声波接收单元与三个声波发送单元所在平面的位置关系判断第一方程组正解,生成声波接收单元在虚拟坐标系下的坐标值。4.根据权利要求3所述的基于人机交互的训练信息采集方法,其特征在于,建立虚拟坐标系时,虚拟坐标系的原点位于其中一个声波发送单元的位置的投影点,虚拟坐标系的X轴和Y轴穿过另外两个声波发送单元所在的位置的投影点。5.根据权利要求1所述的基于人机交互的训练信息采集方法,其特征在于,所述声波发送单元设置有四个,生成穿戴设备的位置信息的方法包括以下步骤:获取声波发送单元与声波接收单元的时钟差及四个声波发送单元在虚拟坐标系下的坐标;基于公式(2)生成关于声波发送单元与声波接收单元关系的第二方程组,并求解第二方程组;(x0‑
x)2+(y0‑
y)2+(z0‑
...

【专利技术属性】
技术研发人员:周凡芬朱立奇
申请(专利权)人:杭州亚辰电子科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1