目前,多机器人系统已经广泛应用于各种领域,包括工业自动化、物流配送、救援任务等。然而,多机器人系统的控制仍存在一些困难和挑战,如机器人之间的相互作用、动态环境变化等,这些都给多机器人系统的安全控制带来了很大的难度。安全一直是机器人系统开发中的长期追求。在本研究中,研究人员采用安全强化学习解决机器人安全控制问题。在安全强化学习中,约束马尔可夫决策过程通常用于描述安全控制问题。在每个决策步骤中,环境都会产生决策的回报和成本,每个机器人需要在最大限度地提高奖励性能的同时,避免违反安全约束。然而,在现实世界中安全地协同控制多个机器人是一个具有挑战性的问题。更具体地说,需要确保每个机器人在非稳定的环境中尽可能好地完成任务(比如,奖励值越大越好),并且保证每个机器人的安全。例如,在图1中,多个工业机器人如何安全地协作完成焊接任务;在图2中,多个自动驾驶汽车如何安全地协作完成自动驾驶避让。
针对上述问题,本研究团队研究了多机器人协同控制的安全问题,并采用了基于多智能体强化学习的方法来解决。在这个问题中,每个机器人需要满足自己的安全约束,同时最大化其奖励,还必须考虑其他机器人的安全约束以保证整个机器人集群的安全性。
为实现上述目标,研究者首先将问题描述为带安全约束的马尔可夫博弈(图3),并采用策略优化理论来实现带安全约束的策略更新。在这个方法中,所有智能体都需要协作以最大化奖励值,并同时考虑安全约束。通过带安全约束的策略优化,研究者所提出的方法能够保证在每次算法迭代时满足安全约束,同时实现奖励值的单调上升。根据研究者提出的安全引理表明,当所有智能体的策略变化都足够小时,每个智能体都可以通过只考虑其自身的代理回报和代理成本来学习更好的策略。