基于深度学习的遥感图像场景分类方法研究.pdf
摘要
遥感图像场景分类因在自然灾害检测、土地利用分类、环境监测、地理制图
和城市规划等诸多领域具有现实应用而备受关注。但遥感图像存在着大尺度方差、
对象大规模变化等问题,且现有的一些遥感场景分类方法没有充分利用图像重要
的信息,或直接融合不同层次的特征容易形成冗余或互斥的信息,这些问题为遥
感场景分类带来了巨大挑战。本文运用深度学习相关技术,对遥感图像场景分类
方法进行研究,取得以下研究成果:
(1)针对遥感图像对象和特征复杂多变的特点,以及一些现有方法只利用
CNN最后一个卷积层的高级特征而缺少其它层上的重要信息,或者直接融合不
同层次的特征产生冗余或互斥信息等问题,提出了基于关联融合-增强注意力的
遥感图像场景分类方法。该方法采用的模型首先通过预训练的ResNeXt-50提取
遥感图像不同层次的卷积特征;其次,构建多尺度特征关联融合计算模块,连接
不同层次的特征,生成增强优化的多尺度语义特征;然后,利用多尺度上下文信
息,关注关键特征,同时避免使用冗余或干扰的特征,设计了一种关联融合-增
强注意力模型;最后,将所得到的关联融合-增强注意特征串联并馈送到Softmax
层,以进行最终的分类。在3个常用的公开遥感场景分类数据集(UCM、
WHU-RS19和AID)上进行的丰富实验表明:本模型优于一些现有的遥感场景
分类模型。
(2)针对遥感图像中特征和对象的大规模变化、大尺度方差以及现有方法
捕获图像重要关键特征信息能力不足而限制分类性能的问题,提出了基于双流架
构多尺度网络的遥感图像场景分类方法。一方面,该架构进行了全局流和局部流
两个分支设计,以此分别从整幅图像和重要区域中提取全局特征和局部特征;另
一方面,为了使用图像级标签定位整幅图像中最重要的区域,嵌入了卷积块注意
力模块(ConvolutionalBlockAttentionModule,CBAM),并设计了关键区域定位
(KeyAreaLocalization,KAL)的关键区域检测策略来连接上述两个流,从而实
现遥感场景分类。为了验证基于CBAM和KAL的全局-局部双流架构的有效性,
本文基于ResNet-18卷积神经网络模型,在3个公共遥感图像场景分类数据集
(UCM、RSSCN7和AID)上进行了大量实验,实验表明,此方法在对比一些
现有先进的遥感场景分类方法具有更显著的性能优势。
关键词:遥感图像场景分类,关联融合-增强注意力,多尺度特征,双流架构,
关键区域定位
Abstract
Remotesensingimagesceneclassificationhasattractedconsiderableattention
duetoitspracticalapplicationsinvariousfieldssuchasnaturaldisasterdetection,
landuseclassification,environmentalmonitoring,geographicmapping,andurban
planning.However,remotesensingimageshaveproblemssuchaslarge-scale
varianceandmassivechangesinobjects.Additionally,someexistingremotesensing
sceneclassificationmethodsdonotfullyutilizetheimportantinformationinimages,
orthedirectfusionoffeaturefromdifferentlevelscanleadtoredundantor
conflictingmutuallyexclusiveinformation.Theseproblemsbringgreatchallengesto
remotesensingsceneclassification.