聊聊 KAN、KAN 卷积结合注意力机制!

发布于 2024-10-14 14:45
浏览
0收藏

第一类 基础线性层替换

KAN 层替换线性层 Linear:

聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区

聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区

更新关于LSTM、TCN、Transformer模型中用 KAN 层替换线性层的故障分类模型。

聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区

KAN 的准确率要优于 MLP,我们可以进一步尝试在常规模型的最后一层线性层都替换为 KAN 层来进行对比;KAN 卷积比常规卷积准确率有略微的提升!

第二类 并行融合模型

KAN卷积、GRU并行:

聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区

故障信号同时送入并行模型,分支一经过 KAN卷积进行学习,分支二利用 GRU 提取故障时域特征,然后并行特征进行堆叠融合,来增强故障信号特征提取能力。

2.1 定义 KANConv-GRU 分类网络模型

聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区

2.2 设置参数,训练模型

聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区

50个epoch,训练集、验证集准确率97%,用改进 KANConv-GRU 并行网络分类效果显著,模型能够充分提取轴承故障信号中的故障特征,收敛速度快,性能优越,精度高,效果明显!

2.3 模型评估

准确率、精确率、召回率、F1 Score

聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区


故障十分类混淆矩阵:

聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区

第三类 结合注意力机制

3.1 KAN 结合自注意力机制:

聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区

我们创造性的提出在利用 KAN 层提取的特征作为自注意力机制的输入,来进一步增加非线性能力,具体步骤如下:

1.输入嵌入:

首先使用 unsqueeze 将输入从 ([batch_size, input_dim]) 扩展为 ([batch_size, 1, input_dim]),以便兼容后续的操作。

使用 input_proj 线性层将输入从 ([batch_size, 1, input_dim]) 映射到 ([batch_size, 1, embed_dim])。

2.查询-键-值投影:

  • 使用 qkv_proj 线性层将输入映射到查询、键和值的嵌入空间,结果形状为 ([batch_size, 1, embed_dim * 3])。

3. 重塑和转置:

  • 将 qkv 重塑为 ([batch_size, 1, 3, num_heads, head_dim])。
  • 然后将维度重新排列为 ([3, batch_size, num_heads, 1, head_dim])。

4.计算注意力权重和输出:

  • 通过缩放的点积计算注意力权重,并对其进行 softmax 归一化。
  • 使用注意力权重与值进行加权求和,得到注意力输出。

5.输出重塑和映射:

  • 将注意力输出重新排列并重塑为 ([batch_size, 1, embed_dim])。
  • 使用 o_proj 线性层将自注意力机制的输出从 ([batch_size, 1, embed_dim]) 映射回 ([batch_size, 1, input_dim])。
  • 使用 squeeze 移除序列长度的维度,得到最终输出 ([batch_size, input_dim])。


    聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区

通过这种方式,输入和输出的维度保持一致。自注意力机制通过计算每个输入元素与其他所有输入元素之间的相关性(注意力分数),并利用这些相关性来加权求和,更新每个输入元素的表示,从而捕捉到输入序列中元素之间的依赖关系。进一步加强了 KAN 输出信息对复杂特征的建模能力。

3.2 KAN 卷积结合通道注意力机制SENet:

聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区

聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区

KAN 卷积与卷积非常相似,但不是在内核和图像中相应像素之间应用点积,而是对每个元素应用可学习的非线性激活函数,然后将它们相加。我们在KAN卷积的基础上融合通道注意力机制,进一步加强了对特征的提取能力!

聊聊 KAN、KAN 卷积结合注意力机制!-AI.x社区

从对比实验可以看出, 在轴承故障诊断任务中:

KAN卷积融合注意力机制后,效果提升明显,后续还可以进一步尝试与其他类型的注意力机制做融合!

本文转载自 建模先锋​,作者: 小蜗爱建模

收藏
回复
举报
回复
相关推荐