文档详情

一种多机器人的任务分配和自动协商的方法.docx

发布:2023-08-01约1.91千字共3页下载文档
文本预览下载声明
一种多机器人的任务分配和自动协商的方法 在多机器人技术中,任务安排和谈判一直是研究的重点之一。其研究主要集中在任务分配的方法、资源能力的推理、自主合作、系统通信流量、学习和双向多问题协商等方面。例如, 在参考文献[1]中刘淑华等提出的任务分配方法是基于群体智能的采用分层架构的带有宽松和紧密耦合任务的大规模多机器人系统;在参考文献[2]中提出分布式同质的多机器人系统, 以实现以负载平衡为目的的任务分配方案;在参考文献[3]中Elango开发了一个仿真模型包括任务优先级和机器人的利用率, 把它做为一个平衡的多机器人任务分配问题的优先级;在参考文献[4]中Jouandeau提出一个以贸易为基础的多机器人任务分配方法, 这个方法模拟了买家和卖家通过使用一种机械的主动竞价方式完成动态的任务分配, 等等。 本文提出的任务分配和协商方法, 考虑机器人的实际能力和性能。并改进了竞争性投标效用函数, 实现了快速学习。 1 机器人技能和任务分配原则 1.1 riscostchacast 在多机器人中, 设R={R B 映射perf ComCost∨ResCost∨RisCost∨ChaCost→ω (t) 表示ω (t) 受很多因素的影响, ComCost是通信成本, ResCost是资源成本, RisCost是执行任务风险成本t, ChaCost是机会成本, j (τ 1.2 实现机器人任务分配时的仿真 在理想的状态下, τ 在参考文献[5]中祖丽楠等设计用竞争性竞标效用函数去实现机器人的任务分配, 但是这个方法没有考虑当机器人加入到实际的合作时机器人实际性能的变化和对机器人的能力补偿。在此我们根据以上的分析对这种方法做了进一步的改进。 情形1 0≤j (1, b 式中:p (b 2 独立谈判 2.1 协商模式 单一的机器人被指派去完成it 从自由机器人{R R R 在多机器人上定义协商模型NMM={R, CT, E}, 其中R={R 2.2 基于鲁棒反馈控制器的机器人学习模式 尽管最小二乘法向量回归帮助解决了在理想状态下小样本的快速学习问题, 但是当用在实际的协商状态下却变得不稳定, 多机器人带有很多不确定的干扰信息会引起无休止的学习。为了维持最小二乘法向量回归的稳定性, 在此我们选择径向基函数核函数, 采用鲁棒反馈控制器抑制不确定的干扰信息以保持系统的稳定性。 式中:v 为了优化在多机器人协商系统实际的性能指标, LMI被用来设计鲁棒控制器的H 权重理解之后, 对手的效用估计 式中:f 式中:φ是鲁棒系数, φ∈ (0, 1) 。 2.3 协商过程中的信号延迟 由于高实时性的要求, 在协商中机器人数量的控制和协商回合应该被升级, 避免在频繁的协商时通信带宽的拥挤和信号延迟。设R 在协商过程中, 当ξ 准备阶段i=1表示开始第一回合协商。 步骤2如果只有一个接受者返回同意, 这个机器人变成候选者R 步骤3如果ΔEU (·) ≥0, 在R 步骤6如果r 步骤7在tk 3 协商过程评估 实验在矩形方格区域进行, 在矩形方格区域内随机创建不同形状的障碍物。多机器人协商去追逐目标机器人 (猎物) 。如图1所示, 是追逐初始化阶段图。目标机器人通过智能策略逃跑。在追逐者和猎物间的视野半径比例为1∶1。声波定位仪的范围比例为1∶2。当协商时广播是唯一的通信方式, LSSVR常常被用来评估对手的谈判效用。 追逐过程中, 算法中分别设计了没有协商的追逐和有协商的追逐两种。在没有协商的追逐过程中, 追逐者追逐猎物是依靠局部的优化算法。而有协商的追逐过程, 机器人之间互相协商去包围猎物。协商的条目有向前移动的距离d, 向后移动的距离d, 向左转的角度θ, 向右转过的角度θ。他们的权重因子是 (0.25, 0.25, 0.25, 0.25) 。机器人预测猎物的移动方向, 提供计数提议。协商的记录储存在协商历史数据库里作为协商双方效用评估样本。 表1表示的是60个没有协商的追逐过程的时间数据。表2表示的是60个有协商的追逐过程时间数据。其中, v 4 基于稳定性的多机器人任务分配和协商的方法 在多机器人任务分配中, 传统的竞争性招标效用函数仅考虑机器人的理想性能而不能补偿机器人的实际性能, 忽略了由外部不确定干扰因素引起的协商系统稳定性问题。本文提出的基于机器人的真实性能的多机器人任务分配和协商的方法, 改进了竞争性投标效用函数。改进的LSSVR实现了快速学习, 鲁棒控制器实现了维持系统稳定性。本方法的有效性已经在实验中得到证明, 实验表明这个方法改进了任务分配的效率。 式中:ω (b
显示全部
相似文档