一种保护计算棒中模型的方法及终端技术

技术编号:32634074 阅读:10 留言:0更新日期:2022-03-12 18:08
本发明专利技术公开一种保护计算棒中模型的方法及终端,接收上位机发送的数据推理请求,所述数据推理请求包括待处理数据;根据所述数据推理请求读取加密AI模型,并将所述加密AI模型在可信执行环境中进行解密,得到AI模型;使用所述AI模型对所述待处理数据进行推理计算,得到推理结果;将所述推理结果发送至所述上位机,将AI模型部署在计算棒上,当需要进行数据推理时,把加密的AI模型在可信执行环境中进行解密,由于外界无法访问可信执行环境,因此外界无法接触到模型解密过程,保证了模型数据不会泄露,且模型的读取、解密、推理都在计算棒内进行,不与上位机有模型数据的交互,从而提高了模型数据的安全性。模型数据的安全性。模型数据的安全性。

【技术实现步骤摘要】
一种保护计算棒中模型的方法及终端


[0001]本专利技术涉及数据安全
,尤其涉及一种保护计算棒中模型的方法及终端。

技术介绍

[0002]对于AI(人工智能,Artificial Intelligence)厂家来说,AI神经网络模型不仅仅凝聚了本企业AI工程师的智慧和心血,训练模型也耗费了海量的数据,这些数据往往都是付费或者辛苦采集得来的,所以AI模型数据保护对于各个AI厂家来说至关重要。在算力上,很多厂家采用计算棒作为AI算力加速协处理使用,提高神经网络推理的算力,加快AI推理运算速度,所以在采用计算棒AI算力加速的过程中,如何有效保护AI神经网络模型不被别人破解盗用,是各个企业都非常关注的问题。
[0003]目前,市面上的通用计算棒是作为上位机的AI算力加速协处理单元存在,如图3所示,AI程序和AI神经网络模型在上位机PC上,PC首先通过AI程序初始化AI神经网络模型,把模型通过USB传输到计算棒上完成模型部署,然后PC获取摄像头采集到的实时图像数据,把图像数据前处理后送到计算棒中,计算棒利用部署的模型完成AI推理,把推理计算的结果再传回PC,完成整个图像识别处理过程。
[0004]在批量的应用部署情况下,受制于计算棒厂家所提供的AI开发工具的通用性,每个上位机的AI神经网络模型是很难个性化加密的;即使模型有加密,上位机上的模型必须被读取解密再传输到计算棒上后,才可以开始AI数据推理加速,所以在模型的存储、加载和传输上,都存在着被破解的危险。

技术实现思路

[0005]本专利技术所要解决的技术问题是:提供一种保护计算棒中模型的方法及终端,能够提高模型数据的安全性。
[0006]为了解决上述技术问题,本专利技术采用的一种技术方案为:
[0007]一种保护计算棒中模型的方法,包括:
[0008]接收上位机发送的数据推理请求,所述数据推理请求包括待处理数据;
[0009]根据所述数据推理请求读取加密AI模型,并将所述加密AI模型在可信执行环境中进行解密,得到AI模型;
[0010]使用所述AI模型对所述待处理数据进行推理计算,得到推理结果;
[0011]将所述推理结果发送至所述上位机。
[0012]为了解决上述技术问题,本专利技术采用的另一种技术方案为:
[0013]一种保护计算棒中模型的终端,包括存储器、处理器及存储在存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
[0014]接收上位机发送的数据推理请求,所述数据推理请求包括待处理数据;
[0015]根据所述数据推理请求读取加密AI模型,并将所述加密AI模型在可信执行环境中进行解密,得到AI模型;
[0016]使用所述AI模型对所述待处理数据进行推理计算,得到推理结果;
[0017]将所述推理结果发送至所述上位机。
[0018]本专利技术的有益效果在于:根据上位机发送的数据推理请求读取加密AI模型,并将加密AI模型在可信执行环境中进行解密,得到AI模型,使用AI模型对请求中的待处理数据进行推理计算,最后将推理结果发送至上位机,不再像现有技术中将AI模型部署在上位机上,而是将AI模型部署在计算棒上,当需要进行数据推理时,把加密的AI模型在可信执行环境中进行解密,由于外界无法访问可信执行环境,因此外界无法接触到模型解密过程,保证了模型数据不会泄露,且模型的读取、解密、推理都在计算棒内进行,不与上位机有模型数据的交互,从而提高了模型数据的安全性。
附图说明
[0019]图1为本专利技术实施例的一种保护计算棒中模型的方法的步骤流程图;
[0020]图2为本专利技术实施例的一种保护计算棒中模型的终端的结构示意图;
[0021]图3为现有技术中计算棒与上位机数据交互示意图;
[0022]图4为本专利技术实施例保护计算棒中模型的方法中计算棒加解密AI模型的流程图;
[0023]图5为本专利技术实施例保护计算棒中模型的方法中计算棒与上位机数据交互示意图;
[0024]图6为本专利技术实施例保护计算棒中模型的方法中计算棒与上位机进行数据推理计算示意图。
具体实施方式
[0025]为详细说明本专利技术的
技术实现思路
、所实现目的及效果,以下结合实施方式并配合附图予以说明。
[0026]请参照图1,本专利技术实施例提供了一种保护计算棒中模型的方法,包括:
[0027]接收上位机发送的数据推理请求,所述数据推理请求包括待处理数据;
[0028]根据所述数据推理请求读取加密AI模型,并将所述加密AI模型在可信执行环境中进行解密,得到AI模型;
[0029]使用所述AI模型对所述待处理数据进行推理计算,得到推理结果;
[0030]将所述推理结果发送至所述上位机。
[0031]从上述描述可知,本专利技术的有益效果在于:根据上位机发送的数据推理请求读取加密AI模型,并将加密AI模型在可信执行环境中进行解密,得到AI模型,使用AI模型对请求中的待处理数据进行推理计算,最后将推理结果发送至上位机,不再像现有技术中将AI模型部署在上位机上,而是将AI模型部署在计算棒上,当需要进行数据推理时,把加密的AI模型在可信执行环境中进行解密,由于外界无法访问可信执行环境,因此外界无法接触到模型解密过程,保证了模型数据不会泄露,且模型的读取、解密、推理都在计算棒内进行,不与上位机有模型数据的交互,从而提高了模型数据的安全性。
[0032]进一步地,所述接收上位机发送的数据推理请求之前包括:
[0033]接收模型烧写请求,所述模型烧写请求包括AI模型;
[0034]根据所述模型烧写请求在可信执行环境中对所述AI模型进行加密,得到加密AI模
型。
[0035]由上述描述可知,AI模型不存储在上位机上,而是固化在计算棒上,外界无法直接接触模型数据,AI模型在计算棒上的可信执行环境中进行加密,然后得到加密AI模型,加密过程在计算棒内部完成,避免了模型泄露。
[0036]进一步地,所述根据所述模型烧写请求在可信执行环境中对所述AI模型进行加密,得到加密AI模型包括:
[0037]根据所述模型烧写请求获取可信执行环境中的硬件唯一密钥;
[0038]根据所述硬件唯一密钥生成与所述AI模型对应的加密密钥,并在所述可信执行环境保存所述加密密钥;
[0039]在所述可信执行环境中使用所述加密密钥对所述AI模型进行加密,得到加密AI模型。
[0040]由上述描述可知,模型加密时,获取可信执行环境中的硬件唯一密钥,根据硬件唯一密钥生成与AI模型对应的加密密钥,并在可信执行环境保存加密密钥,使用加密密钥对AI模型进行加密,根据硬件唯一密钥生成加解密用的密钥,保证了密钥的唯一性,并且每个计算棒上的硬件唯一密钥互不相同,利用该加密密钥进行加密,实现了模型的个性化加密,将加密密钥存储在可信执行环境,即使加密AI模型被拷贝也无需担心由于加密密钥泄露导致模型被破本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种保护计算棒中模型的方法,其特征在于,包括:接收上位机发送的数据推理请求,所述数据推理请求包括待处理数据;根据所述数据推理请求读取加密AI模型,并将所述加密AI模型在可信执行环境中进行解密,得到AI模型;使用所述AI模型对所述待处理数据进行推理计算,得到推理结果;将所述推理结果发送至所述上位机。2.根据权利要求1所述的一种保护计算棒中模型的方法,其特征在于,所述接收上位机发送的数据推理请求之前包括:接收模型烧写请求,所述模型烧写请求包括AI模型;根据所述模型烧写请求在可信执行环境中对所述AI模型进行加密,得到加密AI模型。3.根据权利要求2所述的一种保护计算棒中模型的方法,其特征在于,所述根据所述模型烧写请求在可信执行环境中对所述AI模型进行加密,得到加密AI模型包括:根据所述模型烧写请求获取可信执行环境中的硬件唯一密钥;根据所述硬件唯一密钥生成与所述AI模型对应的加密密钥,并在所述可信执行环境保存所述加密密钥;在所述可信执行环境中使用所述加密密钥对所述AI模型进行加密,得到加密AI模型。4.根据权利要求3所述的一种保护计算棒中模型的方法,其特征在于,所述将所述加密AI模型在可信执行环境中进行解密,得到AI模型包括:在可信执行环境中使用所述加密密钥对所述加密AI模型进行解密,得到AI模型。5.根据权利要求1至4任一项所述的一种保护计算棒中模型的方法,其特征在于,所述加密AI模型存储在eMMC中。6.一种保护计算棒中模型的终端,包括存储器、处理器及存储在存储器上并...

【专利技术属性】
技术研发人员:江正梁陈时钦
申请(专利权)人:瑞芯微电子股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1