A method and device using Volume R_CNN neural network to perform operations, including: acquiring multiple images from different angles of the same sample; determining the recommended region for sample detection by RPN; using Fast R_CNN to predict the categories and boundaries of objects in the recommended region; using Volume R_CNN according to the boundaries of the predicted objects Predict the volume ratio of each object; calculate the volume ratio of different objects according to the object category predicted by Fast R CNN and the object volume ratio predicted by Volume R CNN; where the RPN, Fast R CNN and Volume R CNN share the convolution layer. The invention can measure complex and various kinds of samples, and can identify different kinds of objects more accurately and quickly by adopting artificial neural network technology and chip.
【技术实现步骤摘要】
一种利用VolumeR-CNN神经网络进行运算的方法和装置
本专利技术涉及图像处理
,具体涉及一种利用VolumeR-CNN神经网络进行运算的方法和装置。
技术介绍
在实际生活和生产中,往往会需要测定包括不同种类对象的样品中各类对象的体积,但是现在还没有快捷、准确的测定方法。其中一种现有技术为通过手机拍摄测量样品的俯视图和侧视图,通过人工神经网络识别对象种类,在根据公式计算出每种对象的体积。上述技术的问题在于操作复杂,对输入照片要求高;侧视图容易存在对象的遮挡问题。利用焦距预测对象长宽高等参数,对于不同的手机可能存在一定偏差,使用公式法计算对象体积,不适用于形状不规则对象,计算结果误差较大。
技术实现思路
为了解决现有技术中存在的问题,本专利技术提供了一种利用VolumeR-CNN神经网络进行运算的方法,包括:获取同一样本的不同角度的多个图像;利用RPN确定样本检测的推荐区域;利用FastR-CNN预测推荐区域中对象的类别和边框;根据预测的对象的边框,利用VolumeR-CNN预测每个对象所占的体积比例;根据FastR-CNN预测的对象类别以及VolumeR-CNN预测的对象体积比例,计算出不同类别对象的体积比例;其中,所述RPN、FastR-CNN和VolumeR-CNN共享卷积层。优选地,在确定推荐区域时,所述RPN首先对输入的图片进行多层卷积操作,提取出图片的特征映射,再使用滑动窗口对特征映射进行卷积操作,然后使用分类损失函数和边框回归损失函数两个分支来计算区域分类和区域回归,得出推荐区域。优选地,所述FastR-CNN将推荐区域映射至所述特征映射 ...
【技术保护点】
1.一种利用Volume R‑CNN神经网络进行运算的方法,包括:获取同一样本的不同角度的多个图像;利用RPN确定样本检测的推荐区域;利用Fast R‑CNN预测推荐区域中对象的类别和边框;根据预测的对象的边框,利用Volume R‑CNN预测每个对象所占的体积比例;根据Fast R‑CNN预测的对象类别以及Volume R‑CNN预测的对象体积比例,计算出不同类别对象的体积比例;其中,所述RPN、Fast R‑CNN和Volume R‑CNN共享卷积层。
【技术特征摘要】
1.一种利用VolumeR-CNN神经网络进行运算的方法,包括:获取同一样本的不同角度的多个图像;利用RPN确定样本检测的推荐区域;利用FastR-CNN预测推荐区域中对象的类别和边框;根据预测的对象的边框,利用VolumeR-CNN预测每个对象所占的体积比例;根据FastR-CNN预测的对象类别以及VolumeR-CNN预测的对象体积比例,计算出不同类别对象的体积比例;其中,所述RPN、FastR-CNN和VolumeR-CNN共享卷积层。2.根据权利要求1所述的方法,其中,在确定推荐区域时,所述RPN首先对输入的图片进行多层卷积操作,提取出图片的特征映射,再使用滑动窗口对特征映射进行卷积操作,然后使用分类损失函数和边框回归损失函数两个分支来计算区域分类和区域回归,得出推荐区域。3.根据权利要求1所述的方法,其中,所述FastR-CNN将推荐区域映射至所述特征映射得到RoIs,再对每个RoI进行池化操作,转化为同等大小的特征图,然后对池化操作后的RoIs分别进行两个全连接网络运算,计算出每个推荐区域中的对象类别以及对边框进行精确预测。4.根据权利要求1所述的方法,其中,所述VolumeR-CNN将预测的边框参数映射到所述特征映射上,再对相应的映射区域进行池化操作,变为同等大小的样本区域,然后对每个样本区域进行多层全连接网络运算,计算出图中每个对象的体积中间变量vi,vi为正数;然后再将所述体积中间变量转化为相应的体积比例fi,计算公式为:其中i=1,2……n,n为图像中对象的数目。5.根据权利要求1所述的方法,其中,将预测的边框参数映射到所述特征图上的方法为:将每个坐标数据乘上特征图和原始图像的大小之比。6.根据权利要求1所述的方法,其中,所述VolumeR-CNN中损失函数Volumeloss的形式为其中fi为预测的每个对象的体积比例,fi*为实际值,训练时输入的标记数据。7.根据权利要求1所述的方法,其中,预测过程中神经网络的输出包括:由VolumeR-CNN计算出的一个表示图像中每个对象的所占体积比例的n维向量,每个元素位于区间(0,1]内,且各元素之和为1;由FastR-CNN计算出的一个表示图像中各个对象所属类别的n*m矩阵,m为可识别对象的类别数目,矩阵每一行只有一个元素为1,其余m-1个元素为0,元素1所对应列即为对象所属类别;以及一个表示各个对象边框的n*4的二维数组。8.根据权利要求1所述的方法,其中,所述方法还包括将表示各个对象体积比例的n维向量乘上表示各个对象所属类别的n*m二维数组,得到各类别对象的体积比例向量,为m维向量,该m维向量的每一维对应一类对象,每一维上的数值表示对应类别对象所占的体积比例。9.根据权利要求1所述的方法,其中,所述方法还...
【专利技术属性】
技术研发人员:张团,陈云霁,
申请(专利权)人:中国科学院计算技术研究所,
类型:发明
国别省市:北京,11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。