文档详情

基于视觉感知和深度信息融合的机器人目标抓取研究.pdf

发布:2024-11-24约10.28万字共75页下载文档
文本预览下载声明

摘要

摘要

随着人工智能技术的飞速发展,机器人在工业自动化、服务机器人以及医疗辅助等

领域的应用越来越广泛。机器人的核心功能之一是实现智能识别物体并进行抓取,目前

机器人抓取主要依赖于基于视觉感知的目标检测方法,在训练数据小样本等问题上,存

在较大的检测准确性瓶颈。为了进一步提高目标检测的准确性和抓取成功率,本文利用

Xtark机器人和RealSenseD435i深度相机作为硬件平台,并结合基于视觉感知和深度信

息融合的目标检测算法和路径规划算法作为软件支持,实现对目标物体的智能识别与抓

取。主要进行了以下研究:

(1)针对本文机器人目标抓取任务,根据任务和应用场景进行需求分析,明确了

抓取系统的性能指标,进行系统软硬件平台搭建,将目标检测技术与机器人抓取相结合,

完成目标抓取系统流程的整体设计,为后续的研究和实验开展奠定了基础。

(2)进行基于视觉感知与深度信息融合的YOLOv8目标检测。首先,论述了相机

视觉感知和深度信息原理;接着,分析视觉感知与深度信息特征融合策略,对比了早期

融合、后期融合和多尺度融合优缺点;最后,提出了多尺度融合的改进YOLOv8目标算

法,引入跨空间注意力融合模块,有效地利用了深度图像中的深度信息,减轻了深度图

像中深度孔和盲点对模型的副作用,通过C2f-Faster轻量化模块解决特征图的冗余问题,

采用一种基于动态非单调聚焦的边界框损失函数WIOU,优化了梯度增益分配策略,提

升了模型在处理不同大小目标时的平衡性,提高了检测的整体性能。

(3)对机器人目标抓取运动过程进行规划。首先,对于六自由度Xtark机器人,通

D-HRRTRRT-Connect

过参数法进行建模,并进行正逆运动学求解分析;然后,阐述算法、

算法和RRT*算法的原理及步骤,并在RRT*算法基础上增加偏向策略和贪婪策略,通过

MATLAB中对四种算法进行对比仿真实验,相较于RRT*算法,改进的RRT*算法分别

46.5%65.3%MoveIt

在二维平面和三维空间减少了和的运动规划时间;最后,介绍机器

人运动规划控制系统,将四种算法导入OMPL规划器进行运动规划,在仿真中改进的

RRT*算法相较于RRT*算法的平均规划时间减少了69.2%,达到了改进目的。

4

()在上述工作基础上,进行基于视觉感知和深度信息融合的机器人目标抓取实

验。首先,进行了相机视觉标定工作,完成相机标定和手眼标定;随后,利用自制800

张小样本数据集,对比改进前后目标检测算法性能。实验结果表明,多尺度融合的改进

YOLOv8YOLOv8YOLOv8mAP

算法相较于算法具有更快的损失函数收敛速度,算法的

为92.83%,多尺度融合的改进YOLOv8算法的mAP值为95.17%,相较于YOLOv8算

法提升了2.5%;接着,确定抓取目标中心点的定位,中心点深度误差为1.83%,符合

I

盐城工学院硕士学位论文

设计要求;最后,进行机器人抓取实验,总抓取成功率为89.17%,实验结果验证了所

提出方法的可行性和有效性。

关键词:YOLOv8,机器人抓取,目标检测,运动规划,多尺度融合

II

Abstract

Abstract

Withthe

显示全部
相似文档