仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
为提高模型在信号处理、图像分析、时间序列预测等多个领域的性能和准确性,我们考虑将小波变换与其他技术相结合。
这种结合利用了小波变换的多尺度分析能力,以及其他技术的优势,有效捕捉信号的局部特征,从而实现特征的高效提取与融合,不仅提升了模型的识别精度和鲁棒性,还优化了计算效率,帮助我们更合理地利用资源。
目前,这种结合主要有以下几个常见思路:+Transformer、+Mamba、+注意力机制、+GNN、+CNN…创新空间还是很大的,可参考的顶会成果也比较多。
本文挑选了45个最新的小波变换结合创新方案,方便有论文需求的同学找idea,开源代码基本都有,不想多花时间找参考的可直接拿。
扫码添加小享,回复“小波魔改”
免费获取全部论文合集
方法:本文提出了一种新型的尖峰神经网络架构——SWformer,它通过结合小波变换和Transformer架构的优势,有效捕获图像的时空频率特征,显著提高了脉冲神经网络(SNNs)在静态和神经形态数据集上的准确性和参数效率。
创新点:
SWformer的核心创新在于其频率感知标记混合器(FATM),结合了空间学习器(SL)、频率学习器(FL)和通道混合(CM)分支。
引入了一种新颖的脉冲频率表示方法,支持稳健的、无乘法的事件驱动信号变换。
SWformer作为一种结合时频信息的注意力免架构,允许跨宽频范围的高效特征感知,而无需乘法操作,适合在神经形态硬件上实现。
方法:本文提出了一种简单但高效的框架,将离散小波变换(DWT)引入卷积神经网络(CNN)为基础的学习图像压缩(LIC)中,通过在卷积层和熵编码中使用小波变换,使潜在表示在小波域中更加稀疏,从而提高了率失真(R-D)性能。
创新点:
提出了一种低成本、模块化且即插即用的WeConv层,将离散小波变换(DWT)和逆小波变换(IDWT)嵌入卷积过程中,使得模块可以作为大型卷积神经网络中的一层。
提出了一种基于小波域的量化和熵编码方法,称为WeChARM模块,通过WeConv模块提高的稀疏性受益。
扫码添加小享,回复“小波魔改”
免费获取全部论文合集
方法:本文提出了一种新颖的空间-通道混合(SCH)框架,通过结合窗口化的通道注意力机制和离散小波变换(DWT),有效地扩大了感受野,实现了图像压缩的性能提升,并在四个不同分辨率的数据集上达到了最先进的性能表现。
创新点:
该模块首次将窗口分区引入通道注意力中,有效扩大了感受野,增强了模型捕捉全局信息的能力。
在空间-通道混合(SCH)框架中引入HaarDWT模块,用于频率依赖的下采样和进一步扩大感受野。
方法:论文提出了一种结合小波变换和Mamba模型的时间序列分类方法,通过融合频域和时域特征,并结合Mamba状态空间模型和新颖的Tango扫描机制,以线性效率捕捉长期依赖性,显著提升了多变量时间序列分类的准确性和计算效率。
创新点:
提出了一种新颖的多视角方法,将频域和时域特征无缝整合,以提供互补的判别上下文。
利用并发状态空间模型(SSM)技术Mamba进行序列建模,以线性效率和可扩展性捕捉MTS的长期依赖性。
通过Mamba的线性时间复杂度设计,使TSC模型在训练和推理时更为高效,较现有的先进模型降低了计算成本和内存需求。
扫码添加小享,回复“小波魔改”
免费获取全部论文合集