SAM进化版开源!100倍推理加速!这思路简直杀疯了...


SAM进化版开源!100倍推理加速!这思路简直杀疯了…

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

尽管SAM在处理大规模序列比对数据上难以替代,但它在速度、准确性、灵活性及功能扩展方面仍然有所欠缺。
为了解决这些问题,研究者们基于原始的SAM架构设计了多种变体,比如近期清华&英伟达推出的SAMEO框架,以及实现100倍的加速推理的TinySAM。
另外还有很多成果已被顶会顶刊收录,简单看了点就有ICLR2025上的MTSAM、SAMRefiner两篇,NatureMethods(中科院1区)的μSAM工具…可见现在有关SAM的研究有多热门。
为了方便论文er快速了解前沿,这次我从SAM众多改进方案中挑选了10个最新成果分享,基本都有开源代码,也建议大家在改进时注意结合领域需求,增加论文说服力。
扫码添加小享,回复“SAM改进”
免费获取全部论文+开源代码
方法:论文提出SAMEO框架,基于EfficientSAM改进,使其能作为通用掩码解码器与不同前端检测器结合,预测部分遮挡对象的完整掩码。通过引入Amodal-LVIS数据集和优化训练策略,SAMEO在非模态实例分割任务中展现出卓越的零样本性能和泛化能力。
创新点:
提出SAMEO框架,将EfficientSAM改进为通用掩码解码器,可灵活与多种前端检测器结合,实现对遮挡物体的完整分割。
创建Amodal-LVIS数据集,包含30万张合成遮挡图像及对应未遮挡版本,扩充了训练数据,提升了模型泛化能力。
实现零样本性能突破,模型在未见过的数据集上展现出超越现有监督方法的分割效果,验证了其强大的泛化能力。
方法:论文提出了一种名为TinySAM的高效分割模型,通过全阶段知识蒸馏、后训练量化和分层“万物分割”策略,在保持SAM强大零样本分割性能的同时,显著降低了计算成本,相比原始SAM实现了100倍的加速。
创新点:
提出全阶段知识蒸馏方法,结合硬提示采样和硬掩码加权策略,从教师网络中高效提取知识,提升轻量级学生网络性能。
将后训练量化技术应用于基于提示的分割任务,进一步降低计算成本,优化模型效率。
设计分层“万物分割”策略,通过稀疏采样和高置信度区域过滤,减少冗余计算,加速推理速度,同时保持高精度。
扫码添加小享,回复“SAM改进”
免费获取全部论文+开源代码
方法:论文提出了SAMRefiner,通过设计多提示挖掘策略和分而治之再合并(STM)流程来提升粗糙掩膜的质量,并引入IoU适应步骤进一步优化性能,使SAM能够更高效地用于通用的掩膜精修任务。
创新点:
提出多提示挖掘策略,利用多种提示类型从粗糙掩膜中提取有效信息,提升分割质量。
引入STM流程,通过分割和合并操作,改善多目标场景下的语义分割效果。
设计IoU适应步骤,优化SAM对特定数据集的性能,无需额外标注数据。
方法:论文提出MTSAM框架,通过移除SAM的提示编码器并引入任务特定的嵌入和解码器,使其能生成不同通道数的输出。同时,使用ToRA方法对SAM进行多任务微调,利用低秩张量分解整合任务共享和特定信息,提升多任务性能。
创新点:
提出MTSAM框架,移除SAM的提示编码器,引入任务特定的嵌入和解码器,使模型能够生成不同通道数的任务特定输出。
引入ToRA方法,通过低秩张量分解整合任务共享和任务特定信息,实现高效的多任务微调。
在多个基准数据集上验证了MTSAM的性能,证明了其在多任务学习中的优越性和参数效率。
扫码添加小享,回复“SAM改进”
免费获取全部论文+开源代码


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录