一、空战机动决策信息图研究(论文文献综述)
吴傲,杨任农,梁晓龙,张佳强[1](2021)在《基于模糊推理的无人战斗机视距空战机动决策》文中进行了进一步梳理针对视距1vs.1空战场景下无人战斗机(Unmanned combat aerial vehicle,UCAV)的自主机动决策,提出了一种基于模糊推理的空战机动决策方法。首先,从空战场景出发,建立了角度、距离、速度及高度4种优势因子;其次,利用模糊规则对空战态势进行评估,将代表空战态势的优势因子输入模糊推理机,自适应地调整优势函数中各因子的权重;同时,利用决策机动、序列机动和惯性机动相结合的方法建立敌机位置预测模型,作为机动决策的辅助手段,最后利用试探机动进行机动决策。仿真结果表明模糊推理模型能够实现UCAV自主机动决策能力,模型的优势在于将模糊的空战态势转化为优势函数中确定的权重因子,在策略上指导UCAV做出更有针对性的机动决策。
黄岩毅,陈国栋[2](2021)在《电子对抗条件下空战综合优势评估模型》文中提出针对空战中飞行机动与电子对抗之间的协同攻击决策问题,通过建立符合空战仿真需求的超视距基本战术动作库和运动模型,将机载火控雷达威力区、电子对抗干扰压制区和干扰条件下的空空导弹攻击区、允许脱离时间等要素有机结合,建立了电子干扰条件下空战态势与空战能力协同的综合优势评估方法。作战推演结果表明,建立的空战综合优势评估方法较全面合理地反映了现代空战的特点,能够满足现代空战机动决策需求。
张晓杰,周中良[3](2021)在《基于APF-DQN的空战机动决策方法》文中研究说明针对强化学习中奖励信号稀疏导致价值函数收敛慢的问题,提出结合人工势场(Artificial Potential Field, APF)法和深度Q学习网络(Deep Q-learning Network, DQN)的空战机动决策方法。描述了空战机动态势,建立了空战机动人工势场模型,设计了一阶APF奖励函数,构造了基于DQN的空战决策模型,提出了基于APF-DQN的空战机动决策方法,最后进行了仿真试验。仿真结果表明,所提方法能够解决奖励信号稀疏的问题,使我方战机能够很好地进行轨迹跟踪,占据有利态势。
周新民,吴佳晖,贾圣德,王文林[4](2021)在《无人机空战决策技术研究进展》文中研究说明随着无人机相关技术领域的飞速发展,无人机迅速成为世界各国军事领域的研究热点。无人机自主决策作为无人机领域的核心问题,指的是无人机基于空战态势,利用数学优化理论、人工智能等方法,独立自主地生成机动动作控制指令以完成设定目标的过程。本文首先介绍了世界各国该领域的研究进展,并基于空战决策的求解思路,将决策方法分为三类:基于对策理论、基于专家知识以及基于启发式学习算法的决策方法。其次,针对基于对策理论的空战决策方法,阐述了从微分对策到矩阵对策的发展及联系;针对基于专家知识的空战决策方法,介绍了该类方法的建模方法,改进方向;针对基于启发式学习算法的决策方法,论述了各典型方法的适用条件、改进途径等。最后,对无人机空战决策的研究难点进行分析,并展望了未来的研究方向与趋势。
吴昭欣[5](2021)在《基于深度强化学习的飞行器自主机动决策方法研究》文中提出随着现代战争不断向着信息化、智能化的方向发展,飞行器自主机动决策技术作为提升战斗机智能化水平的关键技术,也越来越受到世界各国的关注。现代空战环境复杂、态势瞬息万变,能够准确感知空战环境并生成合理决策的自主机动决策方法技术是近几年来军事技术研究的重点。近年来,随着人工智能技术研究的不断深入,深度强化学习方法在多种决策问题的解决上取得了一定的突破,为飞行器机动决策问题的解决提供了新的思路。本文以三维空间中飞行器引导机动为应用背景,从深度强化学习的角度对飞行器机动决策过程进行分析,对三维空间中飞行器的引导智能机动决策方法进行研究,目的是为飞行器机动决策方法的智能化推进提供必要的参考与支持。围绕本文的研究目标,主要进行了以下几个方面的研究工作:(1)针对三维连续空间中飞行器引导训练环境不完善的问题,设计了飞行器基本操纵动作的控制方式,可以通过连续多步的机动控制实现复杂的战术动作,满足飞行器引导训练任务的基本需求。首先,依据飞行器动力学和运动学模型,建立了以切向过载和法向过载为控制量的飞行器运动模型,为深度神经网络提供了真实有效的飞行器状态信息。其次,从飞行员的机动操纵过程入手,分析并设计了飞行器机动控制方式,确定了飞行器可用动作集,完善了飞行器引导训练环境。(2)针对飞行器引导智能机动轨迹不够平滑以及深度强化学习算法存在的训练速度慢等问题,设计了飞行器引导奖励重塑函数,可以引导飞行器从限定空域内任意地点到达移动目标位置,实现飞行器引导任务机动决策智能化。首先,在飞行器引导训练环境中通过对训练环境信息的感知与评估,建立了对环境状态的有效表征。其次,从飞行器与移动目标的相对位置以及相对角度关系等方面入手,设计了强化学习奖励重塑函数,提升了智能体训练效率和飞行器飞行轨迹质量。仿真实验结果表明,在移动目标的引导机动中,使用奖励重塑函数能够明显提高飞行器机动轨迹质量和智能体训练速度。(3)针对当前仿真系统难以满足当前1v1近距空战机动决策智能化需求的问题,设计并实现了支持深度强化学习智能体接入的智能空战仿真系统,可以在系统中进行智能体的训练与验证,为1v1近距空战机动决策方法的智能化推进提供仿真技术支持。首先,从深度强化学习与环境的交互方式入手,设计了智能空战仿真系统的总体架构。其次,对仿真系统智能接口进行了设计,定义了智能体与仿真环境的交互方式。最后,展示了利用该系统进行三维空间内一对一空战智能体的训练成果。该平台可以实现飞行器航迹和3D飞行姿态展示,具备训练1v1近距空战机动决策智能体的能力。
王杰,丁达理,陈诚,洪杰峰[6](2021)在《导弹攻击状态评估下的UCAV试探机动决策》文中指出为提高空战决策及轨迹生成过程的真实性与可靠性,空战决策过程应紧紧围绕可靠的气动耦合模型和制导武器的作战使用性能实现,为此提出了基于导弹攻击状态评估下的UCAV试探机动决策.首先,分析了UCAV试探机动决策系统的构建思路;其次,建立了基于气动耦合模型的UCAV试探机动决策方案,通过精细划分的方式,设计了1 331种UCAV试探机动策略;然后,基于空空导弹的作战使用实际,构建了包含角度、距离和能量决策因子的决策评价函数,设计了基于统计学原理的机动决策方法;最后,提出并构建了基于导弹攻击状态评估的权重因子分级模型,使决策因子权重随导弹攻击状态自适应变化.结果表明,通过分别设置UCAV与目标在两组对抗条件3种不同空战初始态势下的对抗仿真实验,验证了所构建的试探机动决策方案及权重因子分级模型在不同空战态势下的决策能力和有效水平.本研究为紧密结合空空导弹作战应用实际的空战决策类问题提供了一种新的思路,所构建的决策策略有利于空空导弹作战使用性能的充分发挥.
施伟,冯旸赫,程光权,黄红蓝,黄金才,刘忠,贺威[7](2021)在《基于深度强化学习的多机协同空战方法研究》文中研究表明多机协同是空中作战的关键环节,如何处理多实体间复杂的协作关系、实现多机协同空战的智能决策是亟待解决的问题.为此,提出基于深度强化学习的多机协同空战决策流程框架(Deep-reinforcement-learning-based multi-aircraft cooperative air combat decision framework, DRL-MACACDF),并针对近端策略优化(Proximal policy optimization,PPO)算法,设计4种算法增强机制,提高多机协同对抗场景下智能体间的协同程度.在兵棋推演平台上进行的仿真实验,验证了该方法的可行性和实用性,并对对抗过程数据进行了可解释性复盘分析,研讨了强化学习与传统兵棋推演结合的交叉研究方向.
王壮[8](2021)在《近距空战飞行器智能机动决策生成研究》文中研究说明智能化空战是实现智能化军事作战的突破口,成为近年来军事领域的研究重点。作为智能化空战的重要组成部分,空战智能机动决策是各军事强国争相开展的研究内容。论文以近距空战中的飞行器机动为应用背景,以深度强化学习技术为智能化手段,对近距空战中的飞行器引导智能机动决策、一对一近距空战博弈飞行器智能机动决策、多飞行器冲突消解智能机动决策等关键技术进行研究,主要工作及贡献如下:(1)针对通用强化学习算法解决动态有方向约束目的地飞行器引导问题时存在的飞行轨迹差、训练效率不高问题,提出了奖励重塑与策略重用相结合的飞行器引导智能体训练方法,在完备的飞行器引导任务中训练实时、准确生成机动决策的智能体,满足飞行器机动决策智能化生成的基础需求。首先,描述了飞行器引导问题,设计了强化学习训练环境与智能体。其次,从指令连续性和目的地相对姿态两个维度设计了奖励重塑函数,提升智能体训练效率和飞行器飞行轨迹质量。仿真实验结果表明,在不同类型的引导任务中,与通用强化学习算法相比,使用指令连续性奖励重塑函数可以提升有人飞行器飞行轨迹质量,相对姿态奖励重塑函数可以提升智能体训练效率。使用强化学习方法训练的智能体具有较高的计算效率,可分别在3ms和1ms的时间内生成有人机引导指令和无人机控制指令。最后,设计了基于预训练和基于目的地姿态预测两种策略重用方法,一定程度上解决了强化学习在飞行器引导任务中泛化能力差的问题,提升了不同移动模式目的地场景中智能体的训练效率。仿真结果表明,两种算法均可加快新智能体的收敛速度,当新任务与基线任务相似度较高时,基于预训练的策略重用方法表现更好;基于目的地姿态预测的方法受任务相似度影响较小,在不同任务中表现稳定。(2)针对一对一近距空战博弈中对手策略不确定、机动决策过程复杂的问题,提出了博弈场景中飞行器智能机动决策生成方法,可以在不确定对抗性环境中实时生成攻防兼备的机动决策,提升了智能对抗中应对高水平对手的机动决策能力。首先,描述了一对一近距空战机动博弈问题,介绍了双方飞行器的优势态势区域及不同的攻防态势关系,构建了一对一近距空战的二人零和博弈模型。其次,分析了使用离散的值函数方法求解空战博弈问题的可行性,提出了强化学习和马尔科夫博弈相结合的极大极小深度Q网络算法,在对手是理性策略的情况下,求解近似均衡策略,并通过仿真实验进行了验证。最后,提出了交替冻结自博弈智能体训练方法,在博弈对抗中交替训练双方智能体;采用联赛制的方法,在多个智能体中选择性能期望最优的智能体。仿真结果表明,在与随机智能对手的仿真对抗中,最优智能体的胜率可达40%以上,失败率在30%以下,胜负比达到了1.65。使用该方法训练的智能体具有较高的计算效率,可在3ms的时间内生成一条机动决策。与已有算法进行仿真对抗,该方法表现优异,关键指标胜率和不败率均优于对手。(3)针对军航飞行器与空域内民航飞行器,以及军航飞行器之间的冲突检测与消解问题,提出了基于有限管制次数的多飞行器冲突消解方法,可快速生成不同管制次数的高成功率冲突消解方案,为管制员提供高效、高质量的辅助决策。首先,描述了空域内冲突检测与消解问题,介绍了消解冲突的主要手段。其次,基于“行动者-评论者”架构,设计了冲突消解智能体,以空域内各飞行器的飞行计划为输入,输出空域内带有方向约束的位置作为新进入空域飞行器的下一途经点。再次,设计了基于有限管制次数的强化学习训练方法,通过设置冲突消解方案需要管制的次数,灵活应对不同的冲突消解场合。该方法可在200ms之内生成冲突消解方案,冲突发生率在1%以下。然后,提出多个智能体协同方案生成的方法,有效地缓解了冲突发生率不能完全降为零的问题。最后,提出基于冲突消解智能体的多机协同空战智能体训练方法,并进行双机协同空战仿真实验,该方法可以在训练前期避免友方飞行器发生冲突,提升双机协同空战智能体训练效率。研发了飞行器引导与博弈智能仿真系统,支持强化学习智能体的训练和应用,满足飞行器智能仿真的需求。基于开放、可扩展的仿真架构,开发了支持强化学习智能体接入的仿真接口,通过训练配置、训练管控和智能体演示对智能仿真全过程提供支持。在该系统上训练了舰载机进近引导智能体和水平面内一对一空战引导智能体,并进行了可视化验证。仿真结果表明,该系统支持使用强化学习算法训练高水平的机动决策智能体,并可直观展示飞行器飞行轨迹,促进了飞行器智能机动决策算法的落地应用。
谢建峰,杨启明,戴树岭,王婉扬,张建东[9](2020)在《基于强化遗传算法的无人机空战机动决策研究》文中认为伴随着无人机技术的不断发展,在军事战场上使用无人机的趋势日益明显,但是无人机自主空战能力还有待进一步提高。空战机动决策是实现无人机自主空战的关键。遗传算法拥有较好的鲁棒性和搜索性,适用于大规模优化问题求解,但无法对没有显式目标函数的问题建模。基于强化学习思想,采用改进的强化遗传算法针对无人机的空战机动决策进行建模。根据工程应用需求,建立了典型的仿真测试场景,仿真结果表明基于强化遗传算法建立的空战机动决策模型,能够获得正确的机动决策序列,在作战中获得位置优势。
陈浩,黄健,王菖,刘权[10](2020)在《空战机动中多智能体协同对抗问题研究》文中研究表明鉴于空战机动在智能化协同对抗中的重要地位,分析了现有典型算法的不足。从智能体建模方法入手,将认知行为模型嵌入强化学习智能体,并提出基于扩展学习规则系统的对手建模用于多智能体系统对抗策略学习和演化。在此基础上借助分层深度网络框架,将复杂任务分解到抽象内部和抽象间的不同层次上实现。此外,为解决协同对抗算法策略重用性差的问题,提出基于对手模型和心智模型的策略识别与策略重用方法。
二、空战机动决策信息图研究(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、空战机动决策信息图研究(论文提纲范文)
(1)基于模糊推理的无人战斗机视距空战机动决策(论文提纲范文)
1 UCAV机动决策建模 |
1.1 空战场景描述 |
1.2 空战机动决策流程 |
1.3 UCAV运动模型 |
1.4 UCAV机动动作库 |
1.5 敌机位置预测 |
2 基于模糊推理的空战态势评估模型 |
2.1 空战优势因子 |
2.1.1 角度优势因子 |
2.1.2 距离优势因子 |
2.1.3 速度优势因子 |
2.1.4 高度优势因子 |
2.2 模糊推理介绍 |
2.3 基于空战态势的模糊推理机设计 |
2.4 机动决策算法 |
3 仿真实验及结果分析 |
3.1 实验一:机动动作库对机动决策的影响 |
3.2 实验二:态势评估模型对机动决策的影响 |
4 结论 |
(2)电子对抗条件下空战综合优势评估模型(论文提纲范文)
0 引言 |
1 空战机动决策模型 |
1.1 基本战术动作库与机动航线 |
1.2 飞机运动模型及控制方法 |
1.3 改进空战威胁评估方法 |
1.3.1 空战态势 |
1.3.2 综合距离优势 |
1.3.3 电子对抗优势 |
1.3.4 机载武器优势 |
1.3.5 作战装备空域优势 |
1.3.6 综合优势 |
2 作战推演分析 |
2.1 作战想定 |
2.2 对抗结果 |
2.3 结果分析 |
3 结论 |
(3)基于APF-DQN的空战机动决策方法(论文提纲范文)
0 引言 |
1 空战机动决策问题描述 |
1.1 空战态势描述 |
1.2 人工势场法 |
2 基于APF-DQN的空战机动强化 学习决策 |
2.1 马尔可夫决策过程与Q学习 |
2.2 APF奖励函数 |
2.3 状态空间与动作空间 |
2.4 并行-精英动作选取方法 |
2.5 状态转移模型 |
2.6 基于APF-DQN的空战机动决策 |
3 仿真与分析 |
3.1 平面环形逃逸-跟踪 |
3.2 爬升-追踪 |
4 结束语 |
(4)无人机空战决策技术研究进展(论文提纲范文)
1 引言 |
2 世界各国空战无人机技术发展 |
2.1 无人机自主作战发展 |
2.2 无人机协同作战发展 |
3 机动决策方法 |
3.1 基于对策理论的机动决策方法 |
3.1.1 基于微分对策的机动决策方法 |
3.1.2 基于矩阵对策的机动决策方法 |
3.2 基于专家知识的机动决策方法 |
3.2.1 基于专家系统的机动决策方法 |
3.2.2 基于影响图法的机动决策方法 |
3.3 基于启发式学习机动的决策方法 |
3.3.1 基于神经网络的机动决策方法 |
3.3.2 基于遗传学习的机动决策方法 |
3.3.3 基于共生生物搜索的机动决策方法 |
3.3.4 基于强化学习的机动决策方法 |
4 下一步研究重点 |
5 结语 |
(5)基于深度强化学习的飞行器自主机动决策方法研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 选题背景及意义 |
1.2 国内外研究历史与现状 |
1.2.1 飞行器机动决策方法研究现状 |
1.2.2 深度强化学习研究现状 |
1.3 论文主要研究工作 |
第2章 深度强化学习理论基础 |
2.1 引言 |
2.2 强化学习 |
2.2.1 强化学习基础 |
2.2.2 马尔可夫决策过程 |
2.3 深度学习 |
2.3.1 前馈神经网络 |
2.3.2 反向传播过程 |
2.4 深度强化学习 |
2.4.1 深度强化学习基本思想 |
2.4.2 近端策略优化算法 |
2.5 本章小结 |
第3章 基于深度强化学习的飞行器引导机动决策方法 |
3.1 引言 |
3.2 飞行器引导强化学习环境设计 |
3.2.1 强化学习环境总体架构 |
3.2.2 飞行器机动模型设计 |
3.2.3 飞行器机动控制方式设计 |
3.2.4 信息感知与评估功能设计 |
3.3 飞行器引导决策智能体设计 |
3.3.1 飞行器引导智能体深度神经网络设计 |
3.3.2 飞行器引导奖励重塑函数设计 |
3.3.3 飞行器引导智能体探索策略设计 |
3.4 方法验证与分析 |
3.4.1 实验环境介绍 |
3.4.2 仿真实验结果与分析 |
3.5 本章小结 |
第4章 基于深度强化学习的智能空战仿真系统 |
4.1 引言 |
4.2 智能仿真系统设计与实现 |
4.2.1 系统总体架构设计 |
4.2.2 系统功能设计 |
4.2.3 智能接口设计 |
4.2.4 系统工作流程设计 |
4.3 智能空战仿真系统应用与展示 |
4.3.1 仿真场景想定设置 |
4.3.2 三维仿真结果展示 |
4.4 本章小结 |
第5章 结论与展望 |
5.1 结论 |
5.2 展望 |
参考文献 |
攻读学位期间取得的研究成果 |
致谢 |
(6)导弹攻击状态评估下的UCAV试探机动决策(论文提纲范文)
1 试探机动决策系统的构建思路 |
2 气动耦合模型的试探机动策略优化设计 |
2.1 UCAV运动动力学模型 |
2.2 UCAV试探机动控制量优化设计 |
3 空战机动决策评价函数构建 |
3.1 空战过程中的相对位置关系表述 |
3.2 角度决策因子评价函数 |
3.3 距离决策因子评价函数 |
3.4 能量决策因子评价函数 |
3.5 机动决策整体评价函数 |
3.6 基于统计学原理的机动优选策略 |
4 导弹攻击状态评估的权重因子分级模型 |
5 模型验证与仿真分析 |
5.1 仿真1:包含决策过程的UCAV对抗不含决策过程的目标 |
5.2 仿真2:包含评估过程的UCAV对抗不包含评估过程的目标 |
6 结 论 |
(8)近距空战飞行器智能机动决策生成研究(论文提纲范文)
摘要 |
Abstract |
符号表 |
第1章 引言 |
1.1 选题背景及意义 |
1.2 近距空战飞行器智能机动决策技术研究现状 |
1.2.1 飞行器引导机动决策问题研究现状 |
1.2.2 空战博弈飞行器机动决策问题研究现状 |
1.2.3 飞行器冲突消解机动决策问题研究现状 |
1.3 论文主要研究工作 |
第2章 相关理论基础与研究进展 |
2.1 引言 |
2.2 飞行器动力学和运动学模型 |
2.2.1 作用在飞行器上的外力和力矩 |
2.2.2 常用的坐标轴系及其转换关系 |
2.2.3 飞行器动力学与运动学方程推导 |
2.3 深度强化学习理论与研究进展 |
2.3.1 强化学习 |
2.3.2 深度学习 |
2.3.3 深度强化学习 |
2.4 本章小结 |
第3章 动态有方向约束目的地飞行器引导智能机动决策研究 |
3.1 引言 |
3.2 飞行器引导问题描述与强化学习框架设计 |
3.2.1 问题描述 |
3.2.2 飞行器引导强化学习环境设计 |
3.2.3 飞行器引导智能体设计 |
3.3 飞行器引导智能机动决策算法设计 |
3.3.1 飞行器引导奖励重塑函数设计 |
3.3.2 飞行器引导策略重用算法设计 |
3.4 飞行器引导智能机动决策生成仿真实验与分析 |
3.4.1 使用奖励重塑函数的飞行器引导仿真实验与分析 |
3.4.2 基于策略重用的飞行器引导仿真实验与分析 |
3.5 本章小结 |
第4章 一对一近距空战博弈飞行器智能机动决策研究 |
4.1 引言 |
4.2 一对一近距空战问题描述与零和博弈建模 |
4.2.1 一对一近距空战博弈问题描述 |
4.2.2 一对一近距空战零和博弈建模 |
4.3 一对一空战博弈智能机动决策生成算法设计 |
4.3.1 一对一近距空战零和博弈的离散值函数解法 |
4.3.2 一对一空战博弈极大极小深度Q网络算法设计 |
4.3.3 一对一空战交替冻结自博弈深度强化学习算法设计 |
4.4 一对一空战博弈智能机动决策生成仿真实验与分析 |
4.4.1 极大极小深度Q网络算法仿真实验与分析 |
4.4.2 交替冻结自博弈算法仿真实验与分析 |
4.5 本章小结 |
第5章 多飞行器冲突消解智能机动决策研究 |
5.1 引言 |
5.2 多飞行器冲突消解问题描述 |
5.3 多飞行器冲突消解深度强化学习方法设计 |
5.3.1 多飞行器冲突消解智能体设计 |
5.3.2 基于有限管制次数的多飞行器冲突消解算法设计 |
5.3.3 多机协同空战智能机动决策生成算法设计 |
5.4 多飞行器冲突消解智能机动决策仿真实验与分析 |
5.4.1 基于有限管制次数的冲突消解算法仿真实验与分析 |
5.4.2 双机协同空战智能机动决策生成仿真实验与分析 |
5.5 本章小结 |
第6章 飞行器引导与博弈智能仿真系统实现与验证 |
6.1 引言 |
6.2 智能仿真系统设计与实现 |
6.2.1 系统功能需求 |
6.2.2 系统设计 |
6.2.3 智能体训练使用流程 |
6.3 智能仿真系统验证与分析 |
6.3.1 舰载机进近引导仿真实验 |
6.3.2 水平面内一对一空战仿真实验 |
6.4 本章小结 |
第7章 总结与展望 |
7.1 工作总结 |
7.2 工作展望 |
参考文献 |
攻读学位期间取得的研究成果 |
致谢 |
(9)基于强化遗传算法的无人机空战机动决策研究(论文提纲范文)
1 算法模型与流程 |
1.1 机动动作库的建立 |
1.1.1 建立无人机运动模型 |
1.1.2 建立机动动作库 |
1.2 一对一空战态势模型 |
1.3 基于强化遗传算法的空战机动决策的建模 |
1.3.1 分类器子系统 |
1.3.2 规则发现子系统 |
1.4 空战决策模型 |
1.4.1 分类器个体设计 |
1.4.2 适应度分配原则 |
1.4.3 遗传算法运行逻辑 |
1) 选择操作 |
2) 交叉操作 |
3) 变异操作 |
2 仿真实验 |
1) 初始均势 |
2) 初始劣势 |
3) 初始优势 |
3 结 论 |
四、空战机动决策信息图研究(论文参考文献)
- [1]基于模糊推理的无人战斗机视距空战机动决策[J]. 吴傲,杨任农,梁晓龙,张佳强. 南京航空航天大学学报, 2021(06)
- [2]电子对抗条件下空战综合优势评估模型[J]. 黄岩毅,陈国栋. 火力与指挥控制, 2021(11)
- [3]基于APF-DQN的空战机动决策方法[J]. 张晓杰,周中良. 飞行力学, 2021(05)
- [4]无人机空战决策技术研究进展[J]. 周新民,吴佳晖,贾圣德,王文林. 国防科技, 2021(03)
- [5]基于深度强化学习的飞行器自主机动决策方法研究[D]. 吴昭欣. 四川大学, 2021
- [6]导弹攻击状态评估下的UCAV试探机动决策[J]. 王杰,丁达理,陈诚,洪杰峰. 哈尔滨工业大学学报, 2021(06)
- [7]基于深度强化学习的多机协同空战方法研究[J]. 施伟,冯旸赫,程光权,黄红蓝,黄金才,刘忠,贺威. 自动化学报, 2021(07)
- [8]近距空战飞行器智能机动决策生成研究[D]. 王壮. 四川大学, 2021(01)
- [9]基于强化遗传算法的无人机空战机动决策研究[J]. 谢建峰,杨启明,戴树岭,王婉扬,张建东. 西北工业大学学报, 2020(06)
- [10]空战机动中多智能体协同对抗问题研究[A]. 陈浩,黄健,王菖,刘权. 第八届中国指挥控制大会论文集, 2020