[1]2024IEEE《基于分层多智能体强化学习的协同干扰智能策略决策方法》(代码+文献)
MATLAB 多智能体 协同 学习资料
[2]使用PettingZoo和Gymnasium创建的用于干扰任务的多智能体ParallelEnv。
[3]单一转换的优先体验重放的代码,以及转换序列的序列重放缓冲区。
使用 DDQN(双深度 Q 网络)解决任务,从 100 集的滚动平均值中获得 0.6 的缩放奖励(从 -1 到 1)。
提出了一种基于分层多智能体强化学习的智能协同干扰策略决策方法。
采用多智能体马尔可夫决策过程(MDP)构建多干扰机协同决策过程。
建立了频域协同干扰决策(FD-CJDM)模型。
引入了分层强化学习(HRL)的设计思想。
为了找到最优策略,采用基于优先经验回放(PER-DDQN)的优化方法,该方法具有和树结构。
对基于 PER-DDQN 的 FD-CJDM 模型的性能进行了仿真。
仿真结果表明,所提出的 PER-DDQN 方法在动作估计方面明显优于深度 Q 网络(DQN)方法,其收敛性能比双深度 Q 网络(DDQN)更快。
此外,智能决策本文提出的协作干扰方法能够根据实时检测到的雷达威胁的顺序制定频域参数决策策略,从而有效地实现了频域智能决策的设计。
ID:5599
详询客服 微信shujuqudong1 或shujuqudong6 或 qq68823886 或 27699885
图文详情请查看: http://matup.cn/868483691350.html