【技术实现步骤摘要】
【国外来华专利技术】具有卷积神经网络实现的显微镜和方法
[0001]本公开涉及一种实现卷积神经网络的方法。本专利技术还涉及一种被配置为实现该方法的机器可读存储介质和显微镜。
技术介绍
[0002]卷积神经网络(CNN)用于各种不同的应用。示例包括图像处理、图像分割或分类、或图像中对象的检测。神经网络可以是机器学习算法的一部分,特别是深度学习算法。例如,在US2019/0333199A1中描述了具有经过训练的用于图像处理的深度神经网络的显微镜。
[0003]神经网络的输入数据可以是图像或从用显微镜捕获的待分析样本的图像中获得。这种通用显微镜包括:用于照亮待分析样本的光源;用于引导来自样本的检测光的物镜;用于通过来自物镜的检测光捕获显微镜图像的相机;以及计算设备,配置为处理显微镜图像并输出图像处理结果。
[0004]一种通用方法包括运行卷积神经网络,其中通过第一过滤层或卷积层从输入张量计算输出张量。第一卷积层包括一个或多个过滤卷积核。
[0005]在本公开的意义上,输入张量被理解为是多维数据阵列,其应用用于生成输出张量的计算。在三维输入张量的情况下,这可以对应于,例如,输入数据的N个二维矩阵。输入张量也可以称为激活图或特征图。它可以是前一个卷积层生成的输出张量,也可以是从这样的输出张量导出的,或者由原始数据形成。输入张量的维数原则上可以是任意数或大于/等于三的数。输入张量可以由包含在一个或多个列表中或由其形成的预定输入数据形成。输入张量的深度也可以限定为通道数。例如,输入张量可以是通道对应不同颜色的图像;具体的,RG ...
【技术保护点】
【技术特征摘要】
【国外来华专利技术】1.一种处理显微镜图像以产生图像处理结果的方法,包括:执行卷积神经网络,其中第一卷积层(100)从由显微镜图像形成的输入张量(10)计算输出张量(20),输出张量(20)被输入到卷积神经网络的一个或多个进一步层中,以计算图像处理结果,其中第一卷积层(100)包括多个过滤卷积核(15A
‑
15M),其特征在于至少多个过滤卷积核(15A
‑
15M)的分别可表示为:
‑
至少一个具有学习参数(L1
‑
L9、L11
‑
L19)的过滤矩阵(15A1
‑
15M1)和
‑
具有隐式参数的从属过滤矩阵(15A2
‑
15AN,15M2
‑
15MN),所述隐式参数由学习参数(L1
‑
L9,L11
‑
L19)和要学习的一个或多个权重(W)确定,其中不同过滤卷积核(15A
‑
15M)的具有学习参数(L1
‑
L9,L11
‑
L19)的过滤矩阵(15A1
‑
15M1)彼此不同,以及输出张量(20)的不同层由不同的过滤卷积核(15A
‑
15M)计算。2.根据权利要求1所述的方法,其特征在于图像处理结果是结果图像、分类、图像分割、对象识别或通过其控制捕获显微镜图像的显微镜的命令。3.根据权利要求1或2所述的方法,其特征在于任一过滤卷积核(15A
‑
15M)的任一从属过滤矩阵(15A2
‑
15AN,15M2
‑
15MN)由任一要学习的权重(W)与同样过滤卷积核(15A
‑
15M)的任一具有学习参数(L1
‑
L9,L11
‑
L19)的过滤矩阵(15A1
‑
15M1)相乘形成,以及其中所有过滤卷积核(15A
‑
15M)的要学习的权重数量(W)加上所有学习参数的数量(L1
‑
L9,L11
‑
L19)小于所有过滤卷积核(15A
‑
15M)的元素总数。4.根根据权利要求1至3中任一项所述的方法,其特征在于每个过滤卷积核(15A
‑
15M)仅包含具有学习参数(L1
‑
L9,L11
‑
L19)的单个过滤矩阵(15A1
‑
15M1),或相反的仅包含从属过滤矩阵(15A2
‑
15AN,15M2
‑
15MN),它们是分别由要学习的权重(W)和具有学习参数(L1
‑
L9,L11
‑
L19)的过滤矩阵(15A1
‑
15M1)定义。5.根据权利要求1至4中任一所述的方法,其特征在于任一过滤卷积核(15A
‑
15M)的所有从属过滤矩阵(15A2
‑
15AN,15M2
‑
15MN)使用相同的要学习的权重(W,v
m
)。6.根据权利要求1至5中任一项所述的方法,其特征在于过滤卷积核(15A
‑
15M)在其各自的具有学习参数(L1
‑
L9,L11
‑
L19)的过滤矩阵(15A1
‑
15M1)方面有所不同。7.根据权利要求1至6中任一项所述的方法,其特征在于多个过滤卷积核(15A
‑
15M)中每个...
【专利技术属性】
技术研发人员:曼努埃尔,
申请(专利权)人:卡尔蔡司显微镜有限责任公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。