用于脑机接口的元学习方法、脑电信号识别方法及装置制造方法及图纸

技术编号:34471466 阅读:13 留言:0更新日期:2022-08-10 08:45
本发明专利技术公开了一种用于脑机接口的元学习方法、脑电信号识别方法及装置,属于脑机接口与机器学习领域,方法包括:S1,获取包含M个源域用户数据的数据集,M>2;S2,将数据集中的源域用户数据随机两两组合,得到M/2组源域用户数据组,对于每组源域用户数据组,利用其中一个源域用户数据更新脑机接口模型的模型参数,并在另一个源域用户数据上计算更新后的脑机接口模型的损失;S3,计算S2中得到的各损失的平均损失,并根据平均损失对S2中更新前的脑机接口模型的模型参数进行更新;S4,重复执行S2

【技术实现步骤摘要】
用于脑机接口的元学习方法、脑电信号识别方法及装置


[0001]本专利技术属于脑机接口与机器学习领域,更具体地,涉及一种用于脑机接口的元学习方法、脑电信号识别方法及装置。

技术介绍

[0002]脑机接口是一种新的人机交互方式,其通过传感器检测、分析通常用脑电图记录的大脑神经活动,实现用户大脑和外部设备之间的直接通信,从而实现辅助交互和康复训练等,是未来元宇宙的重要支撑技术之一。
[0003]脑机接口中存在以下问题。其一,为了实现新用户少校准或者无校准即可使用脑机接口系统,跨被试是一种常见的策略,由于每个用户之间的个体差异,脑电信号也会有不同的模式,因此,在旧用户数据上训练的模型在新用户上往往表现较差。其二,大多数现有的跨被试方法都是使用迁移学习思想而基于特征或实例的,需要访问源数据或特征,脑电信号中包含各种私人信息,现有方法隐私保护性能有限。其三,脑电信号自身量级较小,无法提供大量训练数据,校准困难的问题也导致在新用户上的校准数据量级相对更小;而隐私保护问题也使得系统需要尽量放弃保存原始数据而只保存模型参数,使得模型在新用户上无法再访问旧用户的训练数据。
[0004]元学习技术通过将学习的对象由数据提升至学习任务,可以缓解模型的此类问题。如何基于元学习技术,训练一个更好的无需保存源域用户数据从而不泄露用户隐私的模型,是脑机接口领域亟待解决的问题。

技术实现思路

[0005]针对现有技术的缺陷和改进需求,本专利技术提供了一种用于脑机接口的元学习方法、脑电信号识别方法及装置,其目的在于解决现有脑机接口模型需要保存源域用户数据导致用户隐私泄露的问题。
[0006]为实现上述目的,按照本专利技术的一个方面,提供了一种用于脑机接口的元学习方法,包括:S1,获取包含M个源域用户数据的数据集,每一所述源域用户数据包含多个带标签样本,M>2;S2,将所述数据集中的源域用户数据随机两两组合,得到M/2组源域用户数据组,对于每组源域用户数据组,利用其中一个源域用户数据更新脑机接口模型的模型参数,并在另一个源域用户数据上计算更新后的脑机接口模型的损失;S3,计算所述S2中得到的各损失的平均损失,并根据所述平均损失对所述S2中更新前的脑机接口模型的模型参数进行更新;S4,重复执行所述S2

S3,直至更新后的脑机接口模型的损失函数收敛,并输出最后一次更新得到的脑机接口模型。
[0007]更进一步地,当所述S4之前获取到目标域被试校准数据时,所述S4中还包括:利用所述目标域被试校准数据再次调节最后一次更新得到的脑机接口模型;所述S4中最终输出的为再次调节得到的脑机接口模型。
[0008]更进一步地,再次调节得到的脑机接口模型为:
[0009][0010]其中,θ

MDMAML
、θ
MDMAML
分别为再次调节之后、再次调节之前的脑机接口模型的模型参数,为θ
MDMAML
的梯度,γ为脑机接口模型的第一学习率,为再次调节之前的脑机接口模型,为的损失函数。
[0011]更进一步地,所述S2中还包括:对于任一源域用户数据组,当更新后的脑机接口模型在另一个源域用户数据上的损失大于更新前的脑机接口模型在另一个源域用户数据上的损失时,剔除所述S2中得到的与所述源域用户数据组对应的损失。
[0012]更进一步地,所述S2中利用其中一个源域用户数据更新脑机接口模型的模型参数包括:冻结脑机接口模型中域偏移前后余弦相似度高于设定阈值的模型网络层的参数,利用其中一个源域用户数据更新脑机接口模型中其余模型网络层的参数。
[0013]更进一步地,所述S3中的更新操作为:
[0014][0015][0016][0017]其中,θ为脑机接口模型f
θ
的模型参数,β为脑机接口模型的第二学习率,为θ的梯度,L
MDMAML
为所述S3中得到的平均损失,S
i
、S
j
为数据集S中的第i、j个源域用户数据,为中间模型在S
j
上计算的损失,θ

i
为脑机接口模型f
θ
在S
i
上更新后获得的中间模型的模型参数,α为脑机接口模型的第三学习率,为脑机接口模型f
θ
在S
i
上计算的损失;所述S4中重复执行所述S2

S3以优化θ,直至L
MDMAML
收敛,输出最后一次更新得到的脑机接口模型
[0018]按照本专利技术的另一个方面,提供了一种脑电信号识别方法,包括:获取目标域新用户待识别数据并输入如上所述的用于脑机接口的元学习方法最终得到的脑机接口模型中,得到相应的识别结果。
[0019]按照本专利技术的另一个方面,提供了一种用于脑机接口的元学习装置,包括:获取模块,用于获取包含M个源域用户数据的数据集,每一所述源域用户数据包含多个带标签样本,M>2;跨域梯度更新模块,用于将所述数据集中的源域用户数据随机两两组合,得到M/2组源域用户数据组,对于每组源域用户数据组,利用其中一个源域用户数据更新脑机接口模型的模型参数,并在另一个源域用户数据上计算更新后的脑机接口模型的损失;不变域更新模块,用于计算所述跨域梯度更新模块中得到的各损失的平均损失,并根据所述平均损失对所述跨域梯度更新模块中更新前的脑机接口模型的模型参数进行更新;重复更新及输出模块,用于重复执行所述跨域梯度更新模块和所述不变域更新模块,直至更新后的脑机接口模型的损失函数收敛,并输出最后一次更新得到的脑机接口模型。
[0020]按照本专利技术的另一个方面,提供了一种电子设备,包括:处理器;存储器,其存储有
计算机可执行程序,所述程序在被所述处理器执行时,使得所述处理器执行如上所述的用于脑机接口的元学习方法,或者使得所述处理器执行如上所述的脑电信号识别方法。
[0021]总体而言,通过本专利技术所构思的以上技术方案,能够取得以下有益效果:
[0022](1)在多个源域上采取跨域梯度更新优化方式,以在高噪声低量级数据中学习到有效的底层域不变知识,提高模型的泛化能力,在不破坏源域数据隐私性的前提下训练出更好的源域模型;由于上述步骤都是在源域上执行的,只有模型参数需要被记录,不存在源域数据保存在设备中而被泄露的风险,避免用户隐私泄露;只针对梯度更新方式进行改进,与模型本身架构无关,适用于几乎所有使用梯度下降优化方法的人工神经网络模型,适用性强;
[0023](2)对于所有源域数据,首先随机剔除一个源域,在剩余源域上使用源域拼接的方式以传统方式训练模型直至损失函数收敛,然后在此剔除的源域上再次训练,发现在后一段训练中几乎不受影响的模型参数层,并判定上述参数层与跨域知识无关;基于此,在实际训练过程中,在更新模型参数获得中间模型的过程中无需更新这些层的参数,即冻结这些域偏移前后变化小的网络层,而训练其他对于跨域知识更为敏感的网络层,从而使得模型更好的学习域不变知识本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种用于脑机接口的元学习方法,其特征在于,包括:S1,获取包含M个源域用户数据的数据集,每一所述源域用户数据包含多个带标签样本,M>2;S2,将所述数据集中的源域用户数据随机两两组合,得到M/2组源域用户数据组,对于每组源域用户数据组,利用其中一个源域用户数据更新脑机接口模型的模型参数,并在另一个源域用户数据上计算更新后的脑机接口模型的损失;S3,计算所述S2中得到的各损失的平均损失,并根据所述平均损失对所述S2中更新前的脑机接口模型的模型参数进行更新;S4,重复执行所述S2

S3,直至更新后的脑机接口模型的损失函数收敛,并输出最后一次更新得到的脑机接口模型。2.如权利要求1所述的用于脑机接口的元学习方法,其特征在于,当所述S4之前获取到目标域被试校准数据时,所述S4中还包括:利用所述目标域被试校准数据再次调节最后一次更新得到的脑机接口模型;所述S4中最终输出的为再次调节得到的脑机接口模型。3.如权利要求2所述的用于脑机接口的元学习方法,其特征在于,再次调节得到的脑机接口模型为:其中,θ

MDMAML
、θ
MDMAML
分别为再次调节之后、再次调节之前的脑机接口模型的模型参数,为θ
MDMAML
的梯度,γ为脑机接口模型的第一学习率,为再次调节之前的脑机接口模型,为的损失函数。4.如权利要求1

3任一项所述的用于脑机接口的元学习方法,其特征在于,所述S2中还包括:对于任一源域用户数据组,当更新后的脑机接口模型在另一个源域用户数据上的损失大于更新前的脑机接口模型在另一个源域用户数据上的损失时,剔除所述S2中得到的与所述源域用户数据组对应的损失。5.如权利要求1所述的用于脑机接口的元学习方法,其特征在于,所述S2中利用其中一个源域用户数据更新脑机接口模型的模型参数包括:冻结脑机接口模型中域偏移前后余弦相似度高于设定阈值的模型网络层的参数,利用其中一个源域用户数据更新脑机接口模型中其余模型网络层的参数。6.如权利要求1或5所述的用于脑机接口的元学习方法,其特征在于,所述S3中的更新操作为:操作为:操作为:其中,θ为脑机接口模型f
...

【专利技术属性】
技术研发人员:伍冬睿李思扬吴环宇
申请(专利权)人:华中科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1