仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
讲一个顶会顶刊高频主题:物理信息强化学习。近日顶刊IEEETSE(一区)上还发表了相关成果,提出了一种基于约束强化学习的PIRL方法,计算速度大幅提升。
PIRL属于PIML与强化学习的交叉领域,结合了物理规律的严谨性与强化学习的灵活性,在数据稀缺领域(如航空航天)、动态复杂系统(如湍流控制)、工业自动化等场景表现相当突出。
所以这方向无论在理论创新还是工业落地上都很受欢迎,当下还有很多创新思路可搞,比如方法论融合(如物理约束的奖励设计)、跨领域应用(如医疗机器人)和算法优化(如并行训练)…没idea的同学可考虑。
本文整理了物理信息强化学习12篇最新前沿成果,有代码的都贴上了,需要参考的可无偿获取。
扫码添加小享,回复“物理强化”
免费获取全部论文+开源代码
方法:论文提出了一种无需模型的物理信息强化学习算法,通过引入Lyapunov稳定性定理和策略迭代算法的收敛条件,利用物理信息神经网络分别逼近值函数和控制策略,旨在解决具有输入约束的非线性系统的最优控制问题。
创新点:
提出了一种结合物理信息的强化学习算法,用于解决具有输入约束的非线性系统的最优控制问题。
开发了一种不依赖于非线性系统的第一性原理或数据驱动模型的强化学习算法,通过迭代学习过程获取接近最优的控制策略。
提出了一种新方法,通过设计初始神经网络结构,自动化推导初始可行控制策略。
方法:本文提出了一种基于物理信息深度强化学习(DRL)的公交多策略控制系统,通过融合历史数据和实时交通信息,动态调整公交车的停留时间、车速和信号优先权,有效缓解公交串行问题,显著提高公交运行效率和稳定性。
创新点:
提出了一种基于分布式深度强化学习(DRL)的多策略融合方法,用于动态公交控制。
引入了一种物理信息驱动的DRL状态融合方法,以及一个定制的奖励函数,通过集成先验物理知识来提升多策略控制的效率。
开发了一种高效的基于分布式近端策略优化(DPPO)的学习程序,用于训练公交控制模型。
扫码添加小享,回复“物理强化”
免费获取全部论文+开源代码
方法:本文通过物理信息强化学习(PIRL)实现了对铁电材料中畴壁的自主设计和操控。利用自主化的压电响应力显微镜(PFM)平台,结合强化学习算法,构建了一个基于物理信息的动态模型(surrogatemodel),用于预测电场作用下畴壁的响应。
创新点:
提出了一种结合物理启发的动态模型和强化学习的方法来自动操控铁电薄膜中畴壁。
通过使用代理模型估算系统中的畴壁速度,作者能够在不同电压下预测畴壁的速度。
通过PFM图像数据,成功训练了一个动态模型来预测畴壁在不同脉冲下的位移,并利用此模型训练RL代理学习合适的操作策略。
方法:本文研究提出了物理信息强化学习(PIRL)方法,将伴随梯度法与强化学习相结合,以提高采样效率并克服局部最优问题,通过设计一维自适应超表面光束偏转器,展示了PIRL在大规模组合设计空间中的优越性.
创新点:
物理信息强化学习(PIRL)结合了基于伴随法的物理信息与深度强化学习,显著提高了样本效率。
在预训练数据集不匹配的情况下,迁移学习仍能在不同的目标偏转角条件下实现与PIRL相当的优化性能。
在无信息强化学习中,U-Net通过其固有的网络架构在收敛速度和最终值方面优于全连接网络(FCN)。
扫码添加小享,回复“物理强化”
免费获取全部论文+开源代码