【技术实现步骤摘要】
一种基于自适应池化方式的图像分类方法
[0001]本专利技术涉及模式识别、深度学习等相关
,具体地,是一种使用了自适应池化方式的图像分类方法。
技术介绍
[0002]随着深度学习的快速发展,深度神经网络能够在较为困难的学习任务上取得出色的表现,其中卷积神经网络一般会利用池化的方法来减小激活映射的大小,池化层的引入是仿照人的视觉系统对视觉输入对象进行降维和抽象,这个过程对于增加接受域和减少后续卷积的计算需求是至关重要的,池化操作的一个重要特性是最小化与初始激活映射相关的信息损失,并且不会对计算和内存开销造成重大影响,由于池化层会不断的减小数据的空间大小,因此参数量和计算量也会下降,在一定程度上也控制了过拟合。
[0003]为此,池化层成为当前卷积神经网络中常用的组件之一,用于模仿人的视觉系统对数据进行降维,能够用更高层次的特征表示图像,池化层一般的操作有:最大值池化、均值池化、随机池化、中值池化等等。其中最大值池化和均值池化是最常见并且应用最多的池化操作,最大值池化在前向传播过程中,选择图像区域中特征点的最大值作为该区域池化后的值,最大值池化的优点在于它能学习到图像的边缘和纹理结构;均值池化在前向传播过程中,选择图像区域中所有特征点的均值作为该区域池化后的值,它的优点是可以减小估计均值的偏移,更好的捕捉背景特征。
[0004]尽管最大值池化和均值池化都能在卷积神经网络中有较好的表现,但是由于最大值池化永远只会考虑区域中的最大值,而均值池化永远只会考虑区域的平均值,忽略了其它值的影响和作用,比如说该
【技术保护点】
【技术特征摘要】
1.一种基于自适应池化方式的图像分类方法,其特征在于,所述方法包括以下步骤:步骤1:获取数据集并定义模型,初始化自适应池化层的α值;步骤2:定义优化器、损失函数和学习率衰减策略,设定超参数大小,包括学习率、迭代次数、批大小、控制α更新的λ和ξ;步骤3:将训练集送入模型,开始迭代训练,迭代次数设为epoch;步骤3
‑
1:神经网络前向传播,当经过第i层池化层时,将当前第i层的输入特征图通过给定的卷积核尺寸K
[0]
×
K
[1]
、填充大小P和步长大小S,使用滑动窗口的操作,提取出滑动的n个局部区域块,记为I=[X1,X2,...,X
n
,],其中,每个局部区域块的大小为K
[0]
×
K
[1]
,其中一个区域内的特征值记为X
i
={x1,x2,...,x
T
},T=K
[0]
×
K
[1]
;步骤3
‑
2:若epoch=1,则n个局部区域块使用初始化后的α值,否则使用上轮迭代后的α值;步骤3
‑
3:n个局部区域块,每个局部区域块特征值为X
i
={x1,x2,...,x
T
},通过均值、方差和自由度计算得到n个与之对应的t分布,将其经过仿射变换得到预调整值α
′
,由α和两个超参数λ、ξ进行更新α大小;步骤3
‑
4:n个局部区域块,每个局部区域块特征值为X
i
={x1,x2,...,x
T
},结合更新后的α值,经过自适应池化方式后得到池化后的特征值b
i
,b
i
可以由α值控制选择出X
i
中的任意一个特征值,最后该自适应方式的输出为B=[b1,b2,...,b
n
,];步骤3
‑
5:将该自适应输出B=[b1,b2,...,b
n
,],经由滑动窗口的逆操作,折叠后还原回特征图的张量形式,得到该层池化层的输出特征图;步骤4:前向传播结束后,经由分类器对模型输出的特征进行分类,计算损失并反向传播,直至迭代结束。2.根据权利要求1所述的基于自适应池化方式的图像分类方法,其特征在于,在步骤3
‑
1中,第i层的输入特征图的大小为[N,C,W,H],其中N为batch size的大小,C为特征图的通道数,W和H为特征图的尺寸;根据卷积核尺寸K
[0]
×
K
[1]
、填充大小P和步长大小S,每个通道上的特征图大小,经由滑动窗口的方式得到n个K
[0]
×
K
[1]
大小的局部区域块,其中:其中,i∈{0,1},且spatialsiez
[0]
=W,spatialsiez
[1]
=H;每个通道上形成的n个局部区域块分别对应有一个α值。3.根据权利要求1所述的基于自适应池化方式的图像分类方法,其特征在于,在步骤3
‑
4中,所述的自适应池化方法为:其中,每个局部区域块的特征值为X={x1,x2,...,x
T
},T=K
[0]
×
K
[1]
,b(α)为该局部区域块池化后的结果,α为控制区域内自适应池化程度的参数,并赋...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。