当前位置: 首页 > 专利查询>浙江大学专利>正文

基于多模态合成的LLM隐私推理安全评估方法和系统技术方案

技术编号:46591040 阅读:0 留言:0更新日期:2025-10-10 21:25
本发明专利技术公开了一种基于多模态合成的LLM隐私推理安全评估方法和系统,属于模型安全分析领域。基于预设的虚拟隐私属性,采用多智能体协同的方式,自动化生成模拟社交场景的多模态合成数据,多模态合成数据包括用户画像实例、主题列表、事件列表、帖子文本、图说提示词、关联图像;将多模态合成数据中的主题列表、帖子文本和关联图像输入待评估大语言模型,执行多模态虚拟隐私属性推理,获得推理结果,并通过比对推理结果与用户画像实例对应的原始虚拟隐私属性,生成量化隐私风险评分。本发明专利技术可以自动化生成模拟的多模态社交内容,量化模型隐私推理风险,建立统一基准横向对比模型的隐私保护水平,构建端到端的评估闭环框架。

【技术实现步骤摘要】

本专利技术涉及模型安全分析领域,具体涉及基于多模态合成的llm隐私推理安全评估方法和系统。


技术介绍

1、随着人工智能技术的迅猛发展,以gpt-4o、gemini等为代表的大语言模型(llm)已具备强大的多模态内容理解能力。它们能够同时处理和分析用户在社交网络上发布的文本、图像、标签等多种信息,ai搜索引擎已经有高效索引和理解用户这些信息的能力。这种能力的提升,在带来便利的同时也催生了一种新型的隐私威胁,即推理式隐私泄露。不同于传统的训练数据泄露(即模型直接复现其见过的隐私数据),推理式隐私泄露是指模型即便从未接触过用户的真实隐私信息,也能通过分析用户公开发布的日常内容(如一张生活照、一段心情文字、几个标签),“反向推理”出用户的深层隐私属性,例如其收入水平、健康状况、政治倾向或地理位置等。这种威胁更为隐蔽,用户往往在无意识中暴露了隐私线索。

2、目前主流技术聚焦三类方向,但均无法系统性解决推理式泄露问题:(1)训练数据泄露评估方案,检测模型对训练集中隐私数据的记忆程度,仅关注直接泄露,忽略模型从未接触隐私数据时仍能通过多模态推理泄露隐私的能力本文档来自技高网...

【技术保护点】

1.一种基于多模态合成的LLM隐私推理安全评估方法,其特征在于,包括:

2.根据权利要求1所述的基于多模态合成的LLM隐私推理安全评估方法,其特征在于,所述虚拟隐私属性包括年龄、职业、收入、地理位置、宗教信仰、购物习惯、健康状况、情感关系中的至少一种。

3.根据权利要求1所述的基于多模态合成的LLM隐私推理安全评估方法,其特征在于,多模态合成数据中的多模态数据采用智能体生成,包括:

4.根据权利要求3所述的基于多模态合成的LLM隐私推理安全评估方法,其特征在于,先验分布控制器具体为:

5.根据权利要求3所述的基于多模态合成的LLM隐私推理安...

【技术特征摘要】

1.一种基于多模态合成的llm隐私推理安全评估方法,其特征在于,包括:

2.根据权利要求1所述的基于多模态合成的llm隐私推理安全评估方法,其特征在于,所述虚拟隐私属性包括年龄、职业、收入、地理位置、宗教信仰、购物习惯、健康状况、情感关系中的至少一种。

3.根据权利要求1所述的基于多模态合成的llm隐私推理安全评估方法,其特征在于,多模态合成数据中的多模态数据采用智能体生成,包括:

4.根据权利要求3所述的基于多模态合成的llm隐私推理安全评估方法,其特征在于,先验分布控制器具体为:

5.根据权利要求3所述的基于多模态合成的llm隐私推理安全评估方法,其特征在于,量化隐私风险评分时,对每个属性应用评分规则,输出json格式的评分结果...

【专利技术属性】
技术研发人员:李俊豪陈佳豪贺兴冯周纪守领
申请(专利权)人:浙江大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1