【技术实现步骤摘要】
基于视频理解的手术器械、操作和组织智能识别方法
[0001]本专利技术涉及微创手术行为识别
,具体涉及一种基于视频理解的手术器械、操作和组织智能识别方法。
技术介绍
[0002]微创手术通常在患者体表切开较小的创口,并基于内窥镜等成像设备的引导,完成手术操作。目前微创手术主要采用内镜,将内镜视频呈现在显示器上供医生观察。而微创手术行为识别是指在内镜视频中识别出何种器械正在对何种组织实施何种操作,进而识别手术中的细粒度行为。
[0003]现有的手术行为识别方法通常是对器械、操作、目标进行独立识别,随后再将识别结果融合得到行为识别结果。
[0004]但现有技术未能考虑器械、操作、目标之间的关联关系,识别性能存在缺陷。
技术实现思路
[0005](一)解决的技术问题
[0006]针对现有技术的不足,本专利技术提供了一种基于视频理解的手术器械、操作和组织智能识别方法,解决了现有技术识别性能低的问题。
[0007](二)技术方案
[0008]为实现以上目的,本专利技术通过以 ...
【技术保护点】
【技术特征摘要】
1.一种基于视频理解的手术器械、操作和组织智能识别方法,其特征在于,该方法包括:获取内镜视频的视频帧特征图和对应的语义特征;基于视频帧特征图获取对应的器械视觉识别概率、操作视觉识别概率和组织视觉识别概率;并基于语义特征获取器械关联识别概率、操作关联识别概率和组织关联识别概率;融合各视觉识别概率和对应的关联识别概率获取器械识别概率、操作识别概率和组织识别概率;并基于器械识别概率、操作识别概率和组织识别概率获取三元组标签分类概率。2.如权利要求1所述的一种基于视频理解的手术器械、操作和组织智能识别方法,其特征在于,所述获取内镜视频的视频帧特征图和对应的语义特征,包括:对内镜视频进行预处理,得到符合预设分辨率的视频帧;将视频帧作为特征提取网络的输入,得到视频帧特征图和对应的语义特征,其中,所述视频帧特征图通过卷积网络进行提取;所述语义特征通过图卷积网络进行提取。3.如权利要求2所述的一种基于视频理解的手术器械、操作和组织智能识别方法,其特征在于,所述卷积网络和图卷积网络均包含若干个子网络;且卷积网络的每层子网络输出的特征图和图卷积网络的每层子网络输出的语义特征输入空间语义注意力对齐模块,并将空间语义注意力对齐模块输出的特征图和对应的语义特征作为下一层子网络的输入。4.如权利要求3所述的一种基于视频理解的手术器械、操作和组织智能识别方法,其特征在于,空间语义注意力对齐模块输出特征图和对应的语义特征,包括:通过卷积层和全连接层获取隶属度矩阵,再令隶属度矩阵分别经过SOFTMAX操作和二维平均池化AVGPOOL操作获取空间注意力和通道注意力;最后通过残差连接将空间注意力融合进特征图,并将通道注意力融合进语义特征。5.如权利要求1所述的一种基于视频理解的手术器械、操作和组织智能识别方法,其特征在于,所述基于视频帧特征图获取对应的器械视觉识别概率、操作视觉识别概率和组...
【专利技术属性】
技术研发人员:杨宇轩,王浩,丁帅,苏伊阳,李诗惠,
申请(专利权)人:合肥工业大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。