高分利器:Transformer+图像处理!创新性绝了,3位 IEEE Fellow推荐的含金量!


高分利器:Transformer+图像处理!创新性绝了,3位 IEEE Fellow推荐的含金量!

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

Transformer还能怎么做创新?西工大&台湾清华等3位IEEEFellow给出了思路:一种异构窗口Transformer的图像处理方法,在去噪时间上仅占流行Restormer的30%。
其实,近两年用Transformer做图像处理一直很活跃,因为Transformer核心的自注意力机制比CNN更能灵活处理目标检测、分割等CV任务,尤其是高效结构设计、跨模态应用和领域适配等。
因此这个方向的研究多,顶会顶刊成果也不少,比如IEEETIP的SENet、CVPR2025的PFT模型…都值得研读。为了方便各位找参考,我这边整理好了10篇Transformer+图像处理新论文(有代码),需要的同学自取。
如果想快速出成果,推荐考虑领域适配(如医疗/遥感)+结构轻量化或自监督改进,这些比较容易找到创新点,实验周期也相对短。
扫码添加小享,回复“T图像”
免费获取全部论文+开源代码
方法:论文提出了一种名为异构窗口Transformer(HWformer)的新型图像去噪方法,通过设计异构窗口和引入稀疏技术,高效地捕捉全局和局部信息,显著提升了去噪效果且大幅缩短了去噪时间。
创新点:
提出异构全局窗口,通过不同大小的窗口捕捉更丰富的全局上下文信息,突破短距离建模的局限。
引入水平和垂直方向的移位机制,促进长距离和短距离建模之间的信息交互,提升去噪效果且不增加去噪时间。
首次将稀疏技术嵌入前馈网络,提取邻近补丁的更多局部信息,进一步增强去噪性能。
方法:论文提出了一种名为PFT的模型,用于单图像超分辨率。它通过PFA机制逐步聚焦于重要特征,减少计算成本,同时利用Transformer架构捕捉图像中的长距离依赖关系,从而实现高效且高质量的图像超分辨率重建。
创新点:
提出PFA机制,连接网络中各层的注意力图,逐步聚焦于重要特征,减少计算成本。
利用Transformer架构捕捉图像中的长距离依赖关系,提升超分辨率效果。
在多个基准测试中达到最先进的性能,同时计算复杂度较低,适用于高效图像超分辨率任务。
扫码添加小享,回复“T图像”
免费获取全部论文+开源代码
方法:论文提出了一种用于图像处理的新方法,该方法利用人工智能技术中的Transformer架构来优化图像的显示效果。具体来说,它通过频率域的处理方式,而不是传统的空间域处理,来增强图像的细节和改善图像的曝光效果。
创新点:
提出HFA,用频率域乘法替代空间域相关计算,降低复杂度并高效提取全局信息。
引入DFFFN,动态筛选关键频率信息,提升图像细节恢复和色彩校正效果。
构建统一框架,整合低光照增强、曝光校正和多曝光融合任务,通过拉普拉斯金字塔分解实现多尺度信息恢复和融合。
方法:论文提出了一种混合量子ViT(HQViT),用于图像分类。它通过量子计算加速自注意力机制,处理整个图像,利用振幅编码高效管理高维数据,同时保留部分经典组件以降低量子资源需求。
创新点:
HQViT采用全图像处理方式,利用振幅编码高效处理高维图像数据,减少量子比特需求,简化模型结构。
利用量子计算处理自注意力机制,显著降低经典计算的复杂度。
在模型中选择性保留经典组件,降低量子资源消耗,使模型更适合在当前的噪声中等规模量子设备上运行。
扫码添加小享,回复“T图像”
免费获取全部论文+开源代码


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录