当前位置: 首页 > 专利查询>罗伯特专利>正文

训练子模块并且防止AI模块的捕获的方法技术

技术编号:37769272 阅读:12 留言:0更新日期:2023-06-06 13:32
本公开提出了一种训练子模块(14)以及防止AI模块(12)的捕获的方法。通过输入接口(11)从至少一个用户接收输入数据。它通过阻挡器模块(18)被传输到AI模块(12),该AI模块(12)通过基于输入数据执行第一模型(M)来计算第一输出数据。由子模块(14)来预处理输入数据以获得所述输入数据的至少一个子集。该子模块(14)是使用方法步骤(200)来训练的。由所述子模块(14)来处理所述输入数据和所述输入数据的所述至少一个子集,以从所述输入数据中标识攻击向量。所述攻击向量的标识信息被发送到信息增益模块(16)。模块(16)。模块(16)。

【技术实现步骤摘要】
【国外来华专利技术】训练子模块并且防止AI模块的捕获的方法
[0001]完整说明书:
[0002]以下说明书描述并确认本专利技术的性质以及其将被执行的方式。


[0003]本公开涉及一种训练AI系统中的子模块的方法和一种防止AI系统中的AI模块的捕获的方法。

技术介绍

[0004]随着数据科学的出现,使用人工智能模块来实现数据处理和决策制定系统。人工智能模块使用不同的技术,如机器学习、神经网络、深度学习等。大多数基于AI的系统接收大量数据,并且处理数据来训练AI模型。经训练的AI模型基于用户所请求的用例来生成输出。典型地,AI系统被用于计算机视觉、语音识别、自然语言处理、音频识别、医疗保健、自主驾驶、制造、机器人等领域中,在这些领域中,它们基于通过训练获取的某些规则/智能来处理数据以生成所需的输出。
[0005]为了处理输入并给出期望的输出,AI系统使用各种模型/算法,这些模型/算法是使用训练数据来训练的。一旦使用训练数据训练了AI系统,AI系统就使用模型来分析实时数据并且生成适当的结果。可以基于结果来实时地微调模型。AI系统中的模型形成了该系统的核心。许多努力、资源(有形的和无形的)以及知识投入到开发这些模型中。
[0006]可能的是某个对抗方可能试图从AI系统中捕获/拷贝/提取该模型。对抗方可能使用不同的技术来从AI系统中捕获该模型。对抗方所使用的简单技术之一是其中对抗方使用其自己的测试数据迭代地向该AI系统发送不同的查询。该测试数据可以以提取关于AI系统中的模型工作的内部信息的方式被设计。对抗方使用所生成的结果来训练其自己的模型。通过迭代地进行这些步骤,可能的是捕获该模型的内部,并且可以使用类似的逻辑来构建并行的模型。这将给AI系统的最初开发者带来困难。困难可能是以商业劣势、机密信息的损失、开发中花费的准备时间(lead time)的损失、知识产权的损失、未来收入的损失等形式。
[0007]现有技术中存在已知的方法来标识对抗方的这种攻击并保护AI系统中使用的模型。现有技术US 20190095629A1“Protecting Cognitive Systems from Model Stealing Attacks”公开了一种这样的方法。它公开了一种方法,其中通过将经训练的模型应用于输入数据来处理该输入数据,以生成针对多个预定义类别中的每一个具有值的输出向量。查询引擎通过在与生成输出向量相关联的函数中插入查询来修改输出向量,从而生成经修改的输出向量。然后,输出经修改的输出向量。查询引擎修改一个或多个值来伪装经训练的模型逻辑的经训练的配置,同时维持输入数据的分类的准确性。
附图说明
[0008]参考以下附图描述了本专利技术的实施例:
[0009]图1描绘了AI系统。
[0010]图2描绘了AI系统中的子模块。
[0011]图3图示了训练AI系统中的子模块的方法步骤。
[0012]图4图示了防止AI系统中的AI模块的捕获的方法步骤。
具体实施方式
[0013]了解人工智能(AI)技术和基于人工智能(AI)的系统或人工智能(AI)系统的某些方面是重要的。本公开涵盖了AI系统的两个方面。第一个方面涉及AI系统中的子模块的训练,并且第二个方面涉及防止AI系统中的AI模块的捕获。
[0014]AI技术和AI系统的一些重要方面可以被解释如下。取决于工具的架构,AI系统可以包括许多组件。一个这种组件是AI模块。参考本公开的AI模块可以被解释为运行模型的组件。模型可以被定义为数据的引用或推断集合,其使用不同形式的相关性矩阵。使用这些模型和来自这些模型的数据,可以在不同类型的数据之间建立相关性,以达到对数据的某种逻辑理解。本领域技术人员将意识到不同类型的AI模型,诸如线性回归、朴素贝叶斯分类器、支持向量机、神经网络等。必须理解的是,本公开不特定于在AI模块中正在执行的模型的类型,并且可以被应用于任何AI模块,而不管正在执行的AI模型如何。本领域技术人员还将领会,AI模块可以被实现为一组软件指令、软件和硬件的组合、或者它们的任何组合。
[0015]由AI系统执行的典型任务中的一些是分类、聚类、回归等。大多数分类任务取决于经标记的数据集;也就是说,数据集被手动地标记,以便神经网络学习标记与数据之间的相关性。这被称为监督学习。分类的典型应用中的一些是:面部识别、对象标识、手势识别、声音识别等。聚类或分组是对输入中的相似性的检测。聚类学习技术不需要标签来检测相似性。不具有标签的学习被称为无监督学习。未标记的数据是世界中的大多数数据。机器学习的一个法则是:算法可以在其上训练的数据越多,它就将越准确。因此,随着训练数据集大小增长,无监督学习模型/算法具有产生准确模型的潜力。
[0016]由于AI模块形成AI系统的核心,因此该模块需要被保护以免受攻击。攻击者试图攻击AI模块内的模型,并且从AI模块中窃取信息。攻击是通过攻击向量发起的。在计算技术中,向量可以被定义为恶意代码/病毒数据用来传播其自身(诸如以便感染计算机、计算机系统或计算机网络)的方法。类似地,攻击向量被定义为一种路径或手段,黑客可以通过该路径或手段来获得对计算机或网络的访问,以便递送有效载荷或恶意结果。模型窃取攻击使用一种可以制作AI模块的数字孪生体/副本/拷贝的攻击向量。
[0017]攻击者典型地生成对输入规范的大小和形状的随机查询,并且开始利用这些任意查询来查询该模型。该查询产生用于随机查询的输入

输出对,并且生成从预先训练的模型推断的辅助数据集。然后,攻击者取得该I/O对,并且使用该辅助数据集来从头开始训练新的模型。这是黑盒模型攻击向量,其中不需要原始模型的先验知识。随着关于模型的先验信息可用并增加,攻击者转向更智能的攻击。攻击者选择由他支配的相关数据集来更高效地提取模型。这是基于领域智能模型的攻击向量。利用这些方法,可能的是跨不同的模型和数据集来演示模型窃取攻击。
[0018]必须理解的是,本公开特别地公开了用于训练AI系统中的子模块的方法技术和用于防止AI系统中的AI模块的捕获的方法技术。虽然这些方法技术仅描述了实现目标的一系列步骤,但是这些方法技术是在AI系统中实现的,该AI系统可以是硬件、软件的组合、以及
其组合。
[0019]图1描绘了AI系统(10)。AI系统(10)包括输入接口(11)、阻挡器模块(18)、AI模块(12)、子模块(14)、阻挡器通知模块(20)、信息增益模块(16)和至少一个输出接口(22)。输入接口(11)从至少一个用户接收输入数据。输入接口(11)是硬件接口,其中用户可以录入他对AI模块(12)的查询。
[0020]阻挡器模块(18)被配置成当基于用户的输入攻击查询所计算的信息增益超过预定义阈值时阻挡该用户。阻挡器模块(18)进一步被配置成修改由AI模块(12)生成的第一输出。这仅当输入被标识为攻击向量时才进行。
[0021]AI模块(12),用于处理所述输入数据并且生成对应于所述输入的第一输出数据。AI本文档来自技高网
...

【技术保护点】

【技术特征摘要】
【国外来华专利技术】1.一种AI系统(10),至少包括:输入接口(11),用于从至少一个用户接收输入;阻挡器模块(18),被配置成阻挡至少一个用户,所述阻挡器模块(18)进一步被配置成修改由AI模块(12)生成的第一输出;AI模块(12),用于处理所述输入数据并且生成对应于所述输入数据的第一输出数据;子模块(14),被配置成从接收到的输入中标识攻击向量;信息增益模块(16),被配置成计算信息增益并且将信息增益值发送到所述阻挡器模块(18);阻挡器通知模块(20),用于在检测到攻击向量时向所述AI系统(10)的所有者传输通知;以及输出接口(22),用于向所述至少一个用户发送输出。2.如权利要求1所述的AI系统(10),其中所述子模块(14)进一步包括预处理块。3.如权利要求1所述的AI系统(10),其中当所述子模块(14)没有从接收到的输入中标识攻击向量时,由所述输出接口(22)发送的输出包括第一输出数据。4.一种训练AI系统(10)中的子模块(14)的方法,所述AI系统(10)至少包括执行第一模型(M)的AI模块(12)、用于训练所述AI模块(12)的数据集,所述子模块(14)执行至少两个模型,所述子模块(14)包括用于比较至少两个模型的输出的比较器,所述方法包括以下步骤:转置所述数据集以获得原始数据集的至少一个子集;接收所述原始数据集和所述至少一个子集作为所述子模块(14)的...

【专利技术属性】
技术研发人员:A
申请(专利权)人:罗伯特
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1