基于剪枝的卷积神经网络模型压缩方法研究.pdf
基于剪枝的卷积神经网络模型压缩方法研究
摘要
卷积神经网络在计算机视觉的各个领域取得了显著的进展,然而训练好的神经网络
模型有数百万个参数,需要大量的存储和计算成本,因此很难部署在资源受限的设备上。
此外,卷积神经网络中存在着过度参数化问题,即,参数存在冗余性。据此,网络压缩
与加速技术应运而生。它通过减少网络中的冗余来实现网络参数的压缩与计算的加速。
本文总结现有各种卷积神经网络模型压缩方法的优缺点并对其中的关键技术进行研究,
分别提出相应的解决办法。具体地,本文的主要研究内容如下:
(1)提出一种基于谱聚类的滤波器剪枝(Spectralclusteringfilterpruning,SCFP)
算法。本文通过研究发现,在现代卷积神经网络中存在两种等价变换,这两种等价变换
可以改变网络中参数的幅度而不影响其实际作用。基于参数幅度的剪枝方法不能很好地
识别网络中的冗余。基于聚类的剪枝方法通常采用K-means,没有考虑滤波器高维非线
性的性质,聚类之后仍采用参数幅度判别滤波器重要性。对此,本文提出一种基于谱聚
类的滤波器剪枝算法,该算法使用谱聚类对滤波器进行聚类分组,改善了聚类效果,并
从特征相关性的角度出发重新思考剪枝问题,引入Fisher-score的思想,提出一种基于
特征相关性分析的滤波器重要性判别指标。该指标避免了网络中无关参数尺度的影响。
它可以从特征相关性的角度解释并且易于计算。在基准数据集上进行的广泛不同架构网
络的实验证明了该算法的有效性。
(2)提出一种基于双重注意力机制(Doubleattentionmechanismpruning,DAMP)
的剪枝算法。本文通过研究发现,SENet注意力模块只考虑通道信息的编码而忽略了空
间信息的重要性。CBAM注意力模块虽然同时考虑了通道和空间的注意力,但是通过对
特征图进行全局平均池化和全局最大池化只能捕捉原图像局部范围的信息,而无法获取
长范围依赖的信息。针对以上注意力模块存在的问题,本文提出一种双重注意力机制用
于网络的剪枝。首先,第一重注意力模块分别沿两个方向聚合特征,可以捕捉沿着空间
方向的长期依赖关系,然后引入ECA模块可以避免特征的降维,并且可以进行跨通道
交互。最后,通过第二重注意力模块,获取特征图各个位置的注意力系数,同时为了使
得到的通道重要性之间的差异更大,进一步引入了稀疏项约束,并基于此进行通道剪枝
和空间列剪枝操作。提升了对网络的剪枝效果。
关键词:卷积神经网络;网络压缩;谱聚类;滤波器剪枝;注意力机制
基于剪枝的卷积神经网络模型压缩方法研究
Abstract
Convolutionalneuralnetworkshavemadesignificantprogressinvariousfieldsof
computervision.However,trainedneuralnetworkmodelshavemillionsofparametersand
requiresignificantstorageandcomputationalcosts,makingthemdifficulttodeployon
resourceconstraineddevices.Inaddition,thereisanoverparameterizationproblemin
convolutionalneuralnetworks,whichmeansthatthereisredundancyintheparameters.
Basedonthis,networkcompressionandaccelerationtechnologyemerged.Itachieves
compressionofnetworkparameters