左手Nature,右手CVPR!持续学习(Continual Learning)才是2025发文捷径!
仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
深度学习中,“灾难性遗忘”是个不可避免的问题,而持续学习的出现打破了这一困境,它能让模型在多个任务间顺序学习而不遗忘旧知识,同时具备适应新任务的能力。
鉴于如此优势,持续学习的研究一直是AI领域的核心议题,目前也正处于爆发期。结合2025年最新动态(CVPR25的SEMA、nature子刊的CH-HNN),创新主要聚焦突破单一任务的局限,具体点说就是结合联邦学习、元学习等交叉技术,向多模态、动态环境、资源高效、可解释性等方向演进。
本文整理了10篇持续学习2025新成果,方便有论文需求的同学了解前沿,快速掌握研究思路。开源代码也附上了,希望可以助力大家快速定位可复现的创新点。
扫码添加小享,回复“持续25”
免费获取全部论文+开源代码
方法:本文提出SEMA方法,通过在预训练模型中自动添加模块化适配器适应新任务,检测输入特征变化时添加新适配器,否则重用已有适配器,无需记忆回放即可保留知识并高效扩展模型。
创新点:
提出SEMA持续学习方法,自动扩展预训练模型适配器模块适应新任务且保旧知识。
设计模块化适配器,含功能适配器与表示描述符,检测输入特征分布变化触发操作。
引入可扩展加权路由器,混合适配器输出实现知识复用与亚线性扩展,提升性能。
方法:本文提出CH-HNN,一种受大脑启发的混合神经网络,结合ANN和SNN,通过调制信号和元可塑性机制实现持续学习,有效缓解灾难性遗忘,在任务与类别增量学习中表现优异。
创新点:
提出CH-HNN混合神经网络,结合ANN与SNN,模拟大脑记忆双重表征,缓解灾难性遗忘。
设计ANN调制信号指导SNN学习,元可塑性机制增强模型稳定性与适应性。
CH-HNN任务无关、无需增记忆需求,具适应性鲁棒性,低功耗适合动态环境持续学习。
扫码添加小享,回复“持续25”
免费获取全部论文+开源代码
方法:论文提出AF-FCL方法,针对联邦持续学习中的数据偏差问题,通过准确遗忘策略,利用归一化流模型生成相关特征,结合知识蒸馏和相关性估计,有效选择并利用先前知识,减轻统计异质性影响,显著提升模型性能。
创新点:
提出“准确遗忘”概念,通过归一化流模型量化先前知识的可信度,有选择性地利用知识。
在特征空间训练生成模型,结合知识蒸馏保持特征一致性,提高生成特征质量。
在多种数据集上验证方法,结果表明该方法优于现有基线,展现出优越性能。
方法:论文提出CEL模型,用于疾病预测。通过弹性权重巩固和LSTM处理时间序列,减轻遗忘问题,实验在流感、猴痘等数据集上表现优异,遗忘率低,稳定性高。
创新点:
提出CEL模型,结合EWC与LSTM,针对疾病爆发预测中的持续学习问题,有效缓解灾难性遗忘。
设计新颖数据分割策略,将时间序列数据划分为不同上下文,助力领域增量学习,提升模型对新数据的适应性。
在多种疾病数据集上验证,CEL模型在保持高预测准确性的同时,显著降低遗忘率,增强记忆稳定性,优于现有基准模型。
扫码添加小享,回复“持续25”
免费获取全部论文+开源代码