一种音频敏感信息自动屏蔽方法、装置、设备及存储介质制造方法及图纸

技术编号:37450062 阅读:21 留言:0更新日期:2023-05-06 09:21
本发明专利技术提供了一种音频敏感信息自动屏蔽方法、装置、设备及存储介质,其中方法包括导入音频文件并解析;其中,音频文件包括纯音频源文件或具备音频的成品视频源文件;将所述源文件的全量音频输入角色特征音频计算模型进行角色区分;其中,角色区分通过角色的发声特征进行区分;将所述源文件拆条,按语句、词语以及语音连贯度进行拆分,并对拆分后的段落音频进行语音识别;进行敏感度计算,根据发音和语义甄别所述语音识别到的敏感词汇;将甄别到的敏感词汇的音频文件条中添加覆盖音。本发明专利技术所述的一种音频敏感信息自动屏蔽方法,可为内容生产者、内容运营人员提一种可以为影视内容提供音频自动脱敏的服务,解决人工编辑效率低下等问题。问题。问题。

【技术实现步骤摘要】
一种音频敏感信息自动屏蔽方法、装置、设备及存储介质


[0001]本专利技术属于音频处理领域,尤其是涉及一种音频敏感信息自动屏蔽方法、装置、设备及存储介质。

技术介绍

[0002]现阶段电视机用户看到的影视视频内容可涵盖不同类型、不同国家、不同语言,影视业务内容投放也具备大量的节目资源,对于节目音频脱敏的运营工作来讲具有不小的工作体量。不同国家、不同地区的语种节目在视频录制中不会对粗口、脏话等进行识别并处理,一般会有整段减掉原片的情况,从而照成内容不够充实。有时可能会照成故事线中断,影响观众收视体验。因此,现有的处理方法存在处理效率低,处理效果不佳的问题。

技术实现思路

[0003]有鉴于此,本专利技术旨在提出一种音频敏感信息自动屏蔽方法、装置、设备及存储介质,以解决现有音频处理方法处理效率不佳的问题。
[0004]为达到上述目的,本专利技术的技术方案是这样实现的:
[0005]第一方面,本专利技术提供了一种音频敏感信息自动屏蔽方法,包括:
[0006]导入音频文件并解析;其中,音频文件包括纯音频源文件或具备音频的成品视频源文件;
[0007]将所述源文件的全量音频输入角色特征音频计算模型进行角色区分;其中,角色区分通过角色的发声特征进行区分;
[0008]将所述源文件拆条,按语句、词语以及语音连贯度进行拆分,并对拆分后的段落音频进行语音识别;
[0009]进行敏感度计算,根据发音和语义甄别所述语音识别到的敏感词汇;
[0010]将甄别到的敏感词汇的音频文件条中添加覆盖音。
[0011]进一步的,所述发声特征包括音色、语调、节奏、发音、语种、方言、以及口音。
[0012]进一步的,所述将所述源文件拆条,按语句、词语以及语音连贯度进行拆分,并对拆分后的段落音频进行语音识别,包括:
[0013]解析所述源文件中音频;
[0014]以语句、词语及发音进行段落拆分并标记时间戳节点;
[0015]将拆分后的段落音频按角色区分进行语音识别。
[0016]进一步的,在所述将甄别到的敏感词汇的音频文件条中添加覆盖音后,所述方法还包括:
[0017]存储处理后的音频文件。
[0018]第二方面,本专利技术还提供了一种音频敏感信息自动屏蔽装置,包括:
[0019]导入模块,用于导入音频文件并解析;其中,音频文件包括纯音频源文件或具备音频的成品视频源文件;
[0020]区分模块,用于将所述源文件的全量音频输入角色特征音频计算模型进行角色区分;其中,角色区分通过角色的发声特征进行区分;
[0021]拆解模块,用于将所述源文件拆条,按语句、词语以及语音连贯度进行拆分,并对拆分后的段落音频进行语音识别;
[0022]甄别模块,用于进行敏感度计算,根据发音和语义甄别所述语音识别到的敏感词汇;
[0023]覆盖模块,用于将甄别到的敏感词汇的音频文件条中添加覆盖音。
[0024]进一步的,所述装置还包括:
[0025]存储模块,用于存储处理后的音频文件。
[0026]第三方面,本专利技术还提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上述音频敏感信息自动屏蔽方法的步骤。
[0027]第四方面,本专利技术还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如上述音频敏感信息自动屏蔽方法的步骤。
[0028]相对于现有技术,本专利技术所述的一种音频敏感信息自动屏蔽方法、装置、设备及存储介质具有以下优势:
[0029]本专利技术所述的一种音频敏感信息自动屏蔽方法、装置、设备及存储介质,可为内容生产者、内容运营人员提一种可以为影视内容提供音频自动脱敏的服务,解决人工编辑效率低下等问题。同时该方法还可将内容生产者、内容运营方的影视节目进行脱敏自动处理,提升了相关工作的处理效率,解决了结果过多时人工编辑效果过低的问题。
附图说明
[0030]构成本专利技术的一部分的附图用来提供对本专利技术的进一步理解,本专利技术的示意性实施例及其说明用于解释本专利技术,并不构成对本专利技术的不当限定。在附图中:
[0031]图1为本专利技术实施例一所述一种音频敏感信息自动屏蔽方法流程图;
[0032]图2为本专利技术实施例二所述一种音频敏感信息自动屏蔽装置的结构示意图;
[0033]图3为本专利技术实施例三提供的一种计算机设备的结构示意图。
具体实施方式
[0034]下面结合附图和实施例对本专利技术作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本专利技术,而非对本专利技术的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本专利技术相关的部分而非全部结构。
[0035]实施例一
[0036]图1为本专利技术实施例一所述一种音频敏感信息自动屏蔽方法流程图,参见图1,这种方法的具体步骤包括:
[0037]步骤101、导入音频文件并解析;其中,音频文件包括纯音频源文件或具备音频的成品视频源文件。
[0038]在实际应用过程中,可以将影视内容相关音频文件导入处理系统,文件形式包括纯音频文件或具备音频的成品视频源文件,源文件全量导入后解析文件属性,包括文件格
式、时长、文件大小等属性。
[0039]步骤102、将所述源文件的全量音频输入角色特征音频计算模型进行角色区分;其中,角色区分通过角色的发声特征进行区分。
[0040]示例性的,发声特征包括音色、语调、节奏、发音、语种、方言、以及口音。上述音频计算模型可以采用现有的音频分析模型,以实现对音频的角色区分,在这里不再赘述。
[0041]步骤103、将所述源文件拆条,按语句、词语以及语音连贯度进行拆分,并对拆分后的段落音频进行语音识别。
[0042]示例性的,可以先解析所述源文件中音频。然后以语句、词语及发音进行段落拆分并标记时间戳节点;最后将拆分后的段落音频按角色区分进行语音识别。
[0043]在实际应用过程中,可以解析源文件中音频,以语句、词语发音进行段落拆分并标记时间戳节点。此时拆分出的段落音频按角色进行语音识别。其中,语音识别过程包含语种、词汇、方言等类型音频识别。
[0044]步骤104、进行敏感度计算,根据发音和语义甄别所述语音识别到的敏感词汇。
[0045]具体的,可以将拆条文件中语义识别等算法识别的语句、词汇进行敏感度计算,根据发音、语义甄别敏感词汇。上述敏感度计算也可以采用现有的敏感度分析模型,在这里不再赘述。
[0046]步骤105、将甄别到的敏感词汇的音频文件条中添加覆盖音。
[0047]示例性的,可以在敏感信息的音频文件条中自动添加覆盖音,如:滴~~~、哔~~~。
[0048]步骤106、存储处理后的音频文件。
[0049]具体的,可以将处理后的音频文件保存到存储介质本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种音频敏感信息自动屏蔽方法,其特征在于,包括:导入音频文件并解析;其中,音频文件包括纯音频源文件或具备音频的成品视频源文件;将所述源文件的全量音频输入角色特征音频计算模型进行角色区分;其中,角色区分通过角色的发声特征进行区分;将所述源文件拆条,按语句、词语以及语音连贯度进行拆分,并对拆分后的段落音频进行语音识别;进行敏感度计算,根据发音和语义甄别所述语音识别到的敏感词汇;将甄别到的敏感词汇的音频文件条中添加覆盖音。2.根据权利要求1所述的方法,其特征在于:所述发声特征包括音色、语调、节奏、发音、语种、方言、以及口音。3.根据权利要求1所述的方法,其特征在于,所述将所述源文件拆条,按语句、词语以及语音连贯度进行拆分,并对拆分后的段落音频进行语音识别,包括:解析所述源文件中音频;以语句、词语及发音进行段落拆分并标记时间戳节点;将拆分后的段落音频按角色区分进行语音识别。4.根据权利要求1所述的方法,其特征在于,在所述将甄别到的敏感词汇的音频文件条中添加覆盖音后,所述方法还包括:存储处理后的音频文件。5.一种音频敏感信息自动屏蔽装置,其特征在于,包括:...

【专利技术属性】
技术研发人员:王钦硕程霈吴磊王宇王利斌芦静
申请(专利权)人:爱信诺征信有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1