腔镜视像的目标定位方法和系统、存储介质技术方案

技术编号:20161034 阅读:26 留言:0更新日期:2019-01-19 00:13
本发明专利技术提供一种腔镜视像的目标定位方法和系统、存储介质,该方法包括:S100、获取腔镜镜头采集到的视频;S200、根据所述视频中各帧图像的时间和颜色,从所述视频中选取出关键帧图像;S300、将各张关键帧图像输入预设训练的YOLO目标检测模型,得到多张带有目标定位框和目标类别标识的图像;S400、将所述多张带有目标定位框和目标类别标识的图像进行合成,得到目标定位视频;其中,所述YOLO目标检测模型的训练过程至少包括:采用K‑centers聚类方法对训练样本数据集进行聚类。本发明专利技术采用K‑centers聚类的方式可以有效改善“噪声”敏感问题,从而可以提高目标定位视频的画面质量。

【技术实现步骤摘要】
腔镜视像的目标定位方法和系统、存储介质
本专利技术涉及图像处理
,具体涉及一种腔镜视像的目标定位方法和系统、存储介质。
技术介绍
目前,外科手术腔镜化已经越来越深入人心,微创手术已经成为外科医生和患者的共识。腔镜系统能够提供高清放大的手术画面,能清楚显示体内组织的细微结构,与传统开放手术相比,视野更清晰,因此手术更加准确、精细,有效避免了手术部位以外脏器受到不必要的干扰,且术中出血少,手术更安全。在腔镜手术过程中,由于移动救治中腔镜抖动带来的微创手术视野的噪声特性,对于腔体内一些异常情况的定位和信息挖掘产生一定的影响。
技术实现思路
(一)解决的技术问题针对现有技术的不足,本专利技术提供了一种腔镜视像的目标定位方法和系统、存储介质,能够有效改善“噪声”敏感问题。(二)技术方案为实现以上目的,本专利技术通过以下技术方案予以实现:第一方面,本专利技术提供一种腔镜视像的目标定位方法,包括:S100、获取腔镜镜头采集到的视频;S200、根据所述视频中各帧图像的时间和颜色,从所述视频中选取出关键帧图像;S300、将各张关键帧图像输入预设训练的YOLO目标检测模型,得到多张带有目标定位框和目标类别标识的图像;S400、将所述多张带有目标定位框和目标类别标识的图像进行合成,得到目标定位视频;其中,所述YOLO目标检测模型的训练过程至少包括:采用K-centers聚类方法对训练样本数据集进行聚类。第二方面,本专利技术提供一种腔镜视像的目标定位系统,该系统包括:至少一个存储器;至少一个处理器;其中,所述至少一个存储器存储有至少一个指令模块,经配置由所述至少一个处理器执行;其中,所述至少一个指令模块包括:视频获取模块,用于执行S100、获取腔镜镜头采集到的视频;关键帧提取模块,用于执行S200、根据所述视频中各帧图像的时间和颜色,从所述视频中选取出关键帧图像;目标定位模块,用于执行S300、将各张关键帧图像输入预设训练的YOLO目标检测模型,得到多张带有目标定位框和目标类别标识的图像;合成模块,用于执行S400、将所述多张带有目标定位框和目标类别标识的图像进行合成,得到目标定位视频;模型训练模块,用于预先训练所述YOLO目标检测模型,训练过程至少包括:采用K-centers聚类方法对训练样本数据集进行聚类。第三方面,本专利技术提供一种腔镜视像的目标定位系统,该系统包括:至少一个存储器;至少一个处理器;其中,所述至少一个存储器用于存储计算机程序,所述计算机程序被所述至少一个处理器执行时可实现如下方法:S100、获取腔镜镜头采集到的视频;S200、根据所述视频中各帧图像的时间和颜色,从所述视频中选取出关键帧图像;S300、将各张关键帧图像输入预设训练的YOLO目标检测模型,得到多张带有目标定位框和目标类别标识的图像;S400、将所述多张带有目标定位框和目标类别标识的图像进行合成,得到目标定位视频;其中,所述YOLO目标检测模型的训练过程至少包括:采用K-centers聚类方法对训练样本数据集进行聚类。第四方面,本专利技术提供一种计算机可读存储介质,其上存储有计算机程序,在所述计算机程序被处理器执行时可实现以上方法。(三)有益效果本专利技术实施例提供了一种腔镜视像的目标定位方法和系统、存储介质,首先获取腔镜视像,然后提取出其中的关键帧图像,然后采用预先训练的YOLO目标检测模型对关键帧图像中的目标进行定位并确定目标类型,再将带有目标定位框和目标类别标识的图像进行合成,得到动态的目标定位视频。由于预先训练的YOLO目标检测模型的训练过程中包括采用K-centers聚类方法对训练样本数据集进行聚类,而采用K-centers聚类的方式可以有效改善“噪声”敏感问题,从而可以提高目标定位视频的画面质量。同时本专利技术由于采用目标检测模型进行目标定位和目标类型的识别,其处理效率高、处理速度快,能够做到实时的目标定位和目标类型识别。附图说明为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1示出了本专利技术一实施例中腔镜视像的目标定位方法的流程示意图;图2示出了本专利技术一实施例中腔镜视像的目标定位系统中的部分结构示意图。具体实施方式为使本专利技术实施例的目的、技术方案和优点更加清楚,下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。第一方面,本专利技术提供一种腔镜视像的目标定位方法,该方法由电子设备执行,该电子设备可以是连接在腔镜系统中的腔镜镜头和显示设备之间的装置,该装置可以为腔镜系统中的一部分,也可以为独立于腔镜系统的装置(例如,采用一个单独的装置执行该方法,在执行完该方法后将动态目标视频发送至显示装置进行显示)。如图1所示,该方法包括:S100、获取腔镜镜头采集到的视频;可理解的是,上述视频是腔镜系统中的镜头在插入人体体腔和器脏内腔内直接观察和拍摄的,因此也可以称为腔镜视像。可理解的是,腔镜镜头为腔镜系统中的一部分,而腔镜系统可以为腹腔镜系统、胸腔镜系统、关节腔镜系统,当然还可以是其他腔镜系统。通过腔镜镜头对腔体内部进行视频拍摄,然后将视频数据传输至外部显示器上,这样医护人员可以观察到相关部位的病变情况等。S200、根据所述视频中各帧图像的时间和颜色,从所述视频中选取出关键帧图像;可理解的是,根据图像的时间和颜色提取关键帧,实际上是采用图像的时间与颜色的变化的方法提取关键帧。时间变化能够充分体现图像的全局信息,颜色特征能够反映图像的局部变化信息。举例来说,可以通过以下步骤提取关键帧图像:S201、将视频中的第一帧图像作为一张关键帧图像,并令d=2;可理解的是,d表示所述视频中图像的帧号,例如,d=2表示视频中的第2帧图像的帧号。S202、计算其中,Si为所述视频中的第i帧图像,si=s(ti,ci),ti为第i帧图像在所述视频中所处的时间点,ci为第i帧图像的颜色矩阵。举例来说,s'2=s2-s1,s'3=(s2-s1)+(s3-s2)。S203、判断s'd是否大于对应的预设阈值,其中s'd对应的预设阈值为m*β,m为当前关键帧图像的总帧数,β为常数:若是,则将所述视频中的第d帧图像作为一张关键帧图像,并进入步骤S204;否则,进入步骤S204。可理解的是,s'd用于度量基于时间和颜色变化特征的图像之间的差异性,s'd越大表示图像之间的差异性越大,这样可以剔除相似性高的图像,保留差异性明显的图像作为关键帧图像。这里,通过s'd与预设阈值的比较判定视频中的第d帧图像是否为关键帧图像。S204、判断d是小于所述视频的总帧数:若是,则将d的数值增加1,并返回步骤S202;否则,结束关键帧图像提取过程;这里,通过对d与总帧数的比较,只有当d等于总帧数时才结束关键帧图像提取过程,从而实现对视频中各帧图像的遍历。当然,还可以采用其他方式提取视频中的关键帧,以上步骤S201~本文档来自技高网...

【技术保护点】
1.一种腔镜视像的目标定位方法,其特征在于,该方法由电子设备执行,该方法包括:S100、获取腔镜镜头采集到的视频;S200、根据所述视频中各帧图像的时间和颜色,从所述视频中选取出关键帧图像;S300、将各张关键帧图像输入预设训练的YOLO目标检测模型,得到多张带有目标定位框和目标类别标识的图像;S400、将所述多张带有目标定位框和目标类别标识的图像进行合成,得到目标定位视频;其中,所述YOLO目标检测模型的训练过程至少包括:采用K‑centers聚类方法对训练样本数据集进行聚类。

【技术特征摘要】
1.一种腔镜视像的目标定位方法,其特征在于,该方法由电子设备执行,该方法包括:S100、获取腔镜镜头采集到的视频;S200、根据所述视频中各帧图像的时间和颜色,从所述视频中选取出关键帧图像;S300、将各张关键帧图像输入预设训练的YOLO目标检测模型,得到多张带有目标定位框和目标类别标识的图像;S400、将所述多张带有目标定位框和目标类别标识的图像进行合成,得到目标定位视频;其中,所述YOLO目标检测模型的训练过程至少包括:采用K-centers聚类方法对训练样本数据集进行聚类。2.根据权利要求1所述的方法,其特征在于,所述根据所述视频中各帧图像的时间和颜色,从所述视频中选取出关键帧图像,包括:S201、将视频中的第一帧图像作为一张关键帧图像,并令d=2;S202、计算S203、判断s'd是否大于对应的预设阈值,其中s'd对应的预设阈值为m*β,m为当前关键帧图像的总帧数,β为常数:若是,则将所述视频中的第d帧图像作为一张关键帧图像,并进入步骤S204;否则,进入步骤S204;S204、判断d是小于所述视频的总帧数:若是,则将d的数值增加1,并返回步骤S202;否则,结束关键帧图像提取过程;其中,Si为所述视频中的第i帧图像,si=s(ti,ci),ti为第i帧图像在所述视频中所处的时间点,ci为第i帧图像的颜色矩阵。3.根据权利要求1所述的方法,其特征在于,所述将各张关键帧图像输入预设训练的YOLO目标检测模型之前,所述方法还包括:根据所述腔镜镜头的视野参数对所述关键帧图像的边沿黑边进行平滑处理,采用高通滤波器对平滑处理后的图像进行滤波去噪,并采用中值滤波器对滤波去噪后的图像进行滤波增强。4.根据权利要求1所述的方法,其特征在于,所述将各张关键帧图像输入预设训练的YOLO目标检测模型,得到多张带有目标定位框和目标类别标识的图像,包括:S301、将每一张关键帧图像划分为S*S个网格,s为大于1的整数;S302、针对每一个网格,采用多个候选框确定目标的位置、置信度和目标类别概率,将每一个候选框对应的所述置信度和所述目标类别概率相乘,得到该网络的该候选框中的目标属于每一目标类别的置信得分;S303、将低于预设阈值的置信得分对应的候选框滤除,保留高于等于所述预设阈值的置信得分对应的候选框;S304、对每一张关键帧图像中保留的各个候选框均进行非极大值抑制处理,得到一张带有目标定位框和目标类别标识的图像;其中,所述目标定位框和所述目标类别标识一一对应。5.根据权利要求1-4任一项所述的方法,其特征在于,所述YOLO目标检测模型的网络结构中包括池化层,所述...

【专利技术属性】
技术研发人员:丁帅杨善林
申请(专利权)人:合肥工业大学
类型:发明
国别省市:安徽,34

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1