文档详情

基于深度学习的遥感图像场景分类方法研究.pdf

发布:2025-05-04约9.71万字共70页下载文档
文本预览下载声明

摘要

遥感图像场景分类因在自然灾害检测、土地利用分类、环境监测、地理制图

和城市规划等诸多领域具有现实应用而备受关注。但遥感图像存在着大尺度方差、

对象大规模变化等问题,且现有的一些遥感场景分类方法没有充分利用图像重要

的信息,或直接融合不同层次的特征容易形成冗余或互斥的信息,这些问题为遥

感场景分类带来了巨大挑战。本文运用深度学习相关技术,对遥感图像场景分类

方法进行研究,取得以下研究成果:

(1)针对遥感图像对象和特征复杂多变的特点,以及一些现有方法只利用

CNN最后一个卷积层的高级特征而缺少其它层上的重要信息,或者直接融合不

同层次的特征产生冗余或互斥信息等问题,提出了基于关联融合-增强注意力的

遥感图像场景分类方法。该方法采用的模型首先通过预训练的ResNeXt-50提取

遥感图像不同层次的卷积特征;其次,构建多尺度特征关联融合计算模块,连接

不同层次的特征,生成增强优化的多尺度语义特征;然后,利用多尺度上下文信

息,关注关键特征,同时避免使用冗余或干扰的特征,设计了一种关联融合-增

强注意力模型;最后,将所得到的关联融合-增强注意特征串联并馈送到Softmax

层,以进行最终的分类。在3个常用的公开遥感场景分类数据集(UCM、

WHU-RS19和AID)上进行的丰富实验表明:本模型优于一些现有的遥感场景

分类模型。

(2)针对遥感图像中特征和对象的大规模变化、大尺度方差以及现有方法

捕获图像重要关键特征信息能力不足而限制分类性能的问题,提出了基于双流架

构多尺度网络的遥感图像场景分类方法。一方面,该架构进行了全局流和局部流

两个分支设计,以此分别从整幅图像和重要区域中提取全局特征和局部特征;另

一方面,为了使用图像级标签定位整幅图像中最重要的区域,嵌入了卷积块注意

力模块(ConvolutionalBlockAttentionModule,CBAM),并设计了关键区域定位

(KeyAreaLocalization,KAL)的关键区域检测策略来连接上述两个流,从而实

现遥感场景分类。为了验证基于CBAM和KAL的全局-局部双流架构的有效性,

本文基于ResNet-18卷积神经网络模型,在3个公共遥感图像场景分类数据集

(UCM、RSSCN7和AID)上进行了大量实验,实验表明,此方法在对比一些

现有先进的遥感场景分类方法具有更显著的性能优势。

关键词:遥感图像场景分类,关联融合-增强注意力,多尺度特征,双流架构,

关键区域定位

Abstract

Remotesensingimagesceneclassificationhasattractedconsiderableattention

duetoitspracticalapplicationsinvariousfieldssuchasnaturaldisasterdetection,

landuseclassification,environmentalmonitoring,geographicmapping,andurban

planning.However,remotesensingimageshaveproblemssuchaslarge-scale

varianceandmassivechangesinobjects.Additionally,someexistingremotesensing

sceneclassificationmethodsdonotfullyutilizetheimportantinformationinimages,

orthedirectfusionoffeaturefromdifferentlevelscanleadtoredundantor

conflictingmutuallyexclusiveinformation.Theseproblemsbringgreatchallengesto

remotesensingsceneclassification.

显示全部
相似文档