1模型创新点介绍1.1时序特征捕捉与建模使用Informer的编码器层来捕捉长故障信号时序依赖特征长时间序列处理:传统的RNN和LSTM等方法在处理长时间序列时存在计算效率低、梯度消失等问题。Informer通过改进Transformer架构,使用ProbSparseSelfAttention机制,有效地提高了计算效率,特别是对于长时间序列数据。全局特征提取:通过多头注意力机制,Informer能够捕捉序列数据中的全局特征和长时间依赖关系,确保对故障信号的时序特...
前言本文基于前期介绍的电力变压器,介绍一种基于LSTM预测模型的SHAP可视化分析教程。数据集是使用.csv形式进行存储的,包括了除时间列外“HUFL”,“HULL”,“MUFL”,“MULL”,“LUFL”,“LULL”和“OT”7个特征。1多特征变量数据集制作与预处理1.1导入数据集取油温数据OT为目标预测值!1.2数据集制作按照8:2划分训练集,测试集,滑动窗口设置为122基于Pytorch的LSTM预测模型2.1定义LSTM预测模型2.2设置参数,训练模型注意调整...
前言在时间序列预测任务中,像EMD(经验模态分解)、CEEMDAN(完全集合经验模态分解)、VMD(变分模态分解)等分解算法的使用有可能引入信息泄露,具体情况取决于这些方法的应用方式。信息泄露的主要风险在于:将未来的信息泄露给了模型,使得模型在实际应用中表现得比应有的好。为了防止信息泄露,我们在分解之前,首先对数据集进行划分。然后使用滑动窗口的方法来制作数据集标签,最后逐步滚动分解时间序列窗口!1创新模型...
2024-11-06 15:02:04 300浏览 0点赞 0回复 0收藏
前言本文基于凯斯西储大学(CWRU)轴承数据和东南大学轴承数据,进行快速傅里叶变换(FFT)和变分模态分解VMD的数据预处理,最后通过Python实现基于2DSWinTransformer+1DCNNSENet并行的特征融合模型对故障数据的分类。1模型泛化实验西储大学数据集1.1设置参数,训练模型1.2模型评估准确率、精确率、召回率、F1Score故障十分类混淆矩阵:其他可视化图:(1)分类标签可视化(2)原始数据tSNE特征可视化(3)模型训练后的tSNE特...
2024-11-01 14:39:04 229浏览 0点赞 0回复 0收藏
前言本文基于凯斯西储大学(CWRU)轴承数据,先经过数据预处理进行数据集的制作和加载,最后通过Pytorch实现KNN+GCN模型对故障数据的分类。1.相关网络介绍1.1图卷积神经网络(GCN)论文地址:https:arxiv.orgabs1609.029071.2图注意力网络(GAT)论文地址:https:arxiv.orgabs1710.109031.3稀疏图卷积网络(SGCN)论文地址:https:arxiv.orgabs2104.015281.4GIN图同构网络论文地址:https:arxiv.or...
2024-10-28 16:00:06 210浏览 0点赞 0回复 0收藏
前言本期推出结合CVPR2022视觉顶会论文RepLKNet的多模态故障诊断创新模型,适合各种故障诊断领域、电能质量扰动信号、各种声信号、脑电信号等分类任务!创新模型还未发表!!!有小论文、毕业论文需求的不容错过!提供马尔可夫转换场MTF、递归图RP、格拉姆矩阵GAF、连续小波变换CWT、短时傅里叶变换STFT五种时频图像变换方法,可灵活替换多模态特征中的时频图像类型!1创新模型相关解释●数据集:CWRU西储大学轴承数据集●环境框...
2024-10-23 13:25:34 274浏览 0点赞 0回复 0收藏
1模型创新点介绍1.1时序特征捕捉与建模使用Informer的编码器层来捕捉长故障信号时序依赖特征长时间序列处理:传统的RNN和LSTM等方法在处理长时间序列时存在计算效率低、梯度消失等问题。Informer通过改进Transformer架构,使用ProbSparseSelfAttention机制,有效地提高了计算效率,特别是对于长时间序列数据。全局特征提取:通过多头注意力机制,Informer能够捕捉序列数据中的全局特征和长时间依赖关系,确保对故障信号的时序特...
2024-10-18 15:40:37 430浏览 0点赞 0回复 0收藏
前言本期推出结合CVPR2022视觉顶会论文RepLKNet的多模态故障诊断创新模型,适合各种故障诊断领域、电能质量扰动信号、各种声信号、脑电信号等分类任务!创新模型还未发表!!!有小论文、毕业论文需求的不容错过!提供马尔可夫转换场MTF、递归图RP、格拉姆矩阵GAF、连续小波变换CWT、短时傅里叶变换STFT五种时频图像变换方法,可灵活替换多模态特征中的时频图像类型!1创新模型相关解释●数据集:CWRU西储大学轴承数据集●环境框...
2024-10-16 17:00:34 301浏览 0点赞 0回复 0收藏
第一类基础线性层替换KAN层替换线性层Linear:更新关于LSTM、TCN、Transformer模型中用KAN层替换线性层的故障分类模型。KAN的准确率要优于MLP,我们可以进一步尝试在常规模型的最后一层线性层都替换为KAN层来进行对比;KAN卷积比常规卷积准确率有略微的提升!第二类并行融合模型KAN卷积、GRU并行:故障信号同时送入并行模型,分支一经过KAN卷积进行学习,分支二利用GRU提取故障时域特征,然后并行特征进行堆叠融合,来增强故障...
2024-10-14 14:45:50 833浏览 0点赞 0回复 0收藏
前言本文基于前期介绍的电力变压器,介绍一种基于VMD+CEEMDAN二次分解的TCNTransforme预测模型,以提高时间序列数据的预测性能。电力变压器数据集的详细介绍可以参考下文:电力变压器数据集介绍和预处理1二次分解与数据集制作1.1导入数据1.2VMD分解第一步,根据不同K值条件下,观察中心频率,选定K值;从K4开始出现中心频率相近的模态,出现过分解,故模态数K选为4。第二步,分解可视化1.3样本熵样本熵是一种用于衡量序列复杂度...
2024-10-10 15:38:42 617浏览 0点赞 0回复 0收藏
前言在时间序列预测任务中,像EMD(经验模态分解)、CEEMDAN(完全集合经验模态分解)、VMD(变分模态分解)等分解算法的使用有可能引入信息泄露,具体情况取决于这些方法的应用方式。信息泄露的主要风险在于:将未来的信息泄露给了模型,使得模型在实际应用中表现得比应有的好。为了防止信息泄露,我们在分解之前,首先对数据集进行划分。然后使用滑动窗口的方法来制作数据集标签,最后逐步滚动分解时间序列窗口!注:没有错误...
2024-10-08 15:16:32 744浏览 0点赞 0回复 0收藏
前言本文基于前期介绍的电力变压器,介绍一种基于TCNSENet+BiGRUGlobalAttention并行预测模型,以提高时间序列数据的预测性能。电力变压器数据集的详细介绍可以参考下文:电力变压器数据集介绍和预处理1模型整体结构模型整体结构如下所示:分支一:通过基于通道注意力机制(SENet)的TCN模型网络,来自适应地调整通道特征的权重,使模型能够自动学习到不同通道的重要性,提取了多特征序列中与预测目标相关的重要空间特征;分支二:...
2024-09-30 14:46:45 376浏览 0点赞 0回复 0收藏
前言本期基于凯斯西储大学(CWRU)轴承数据,进行Transformer的结构优势进行讲解,结合论文《HowMuchAttentionDoYouNeed》,探索不同模块对故障分类任务的影响力。1《HowMuchAttentionDoYouNeed》1.1论文解析论文提到三个观点:(1)Sourceattentiononlowerencoderlayersbringsnoadditionalbenefit(x4.2).解释:SourceAttention:通常指的是在编码器(encoder)中,模型关注输入序列的不同部分的机制。在Transformer中,编码器...
2024-09-25 13:05:48 298浏览 0点赞 0回复 0收藏
前言本期推出结合CVPR2022视觉顶会论文RepLKNet的多模态故障诊断创新模型,适合各种故障诊断领域、电能质量扰动信号、各种声信号、脑电信号等分类任务!创新模型还未发表!!!有小论文、毕业论文需求的不容错过!提供马尔可夫转换场MTF、递归图RP、格拉姆矩阵GAF、连续小波变换CWT、短时傅里叶变换STFT五种时频图像变换方法,可灵活替换多模态特征中的时频图像类型!1创新模型相关解释●数据集:CWRU西储大学轴承数据集●环境框...
2024-09-23 11:37:21 644浏览 0点赞 0回复 0收藏
前言在时间序列预测任务中,像EMD(经验模态分解)、CEEMDAN(完全集合经验模态分解)、VMD(变分模态分解)等分解算法的使用有可能引入信息泄露,具体情况取决于这些方法的应用方式。信息泄露的主要风险在于:将未来的信息泄露给了模型,使得模型在实际应用中表现得比应有的好。为了防止信息泄露,我们在分解之前,首先对数据集进行划分。然后使用滑动窗口的方法来制作数据集标签,最后逐步滚动分解时间序列窗口!注:没有错误...
2024-09-19 11:19:43 828浏览 0点赞 0回复 0收藏
前言本文基于前期介绍的电力变压器,介绍一种基于TCNSENet+BiGRUGlobalAttention并行预测模型,以提高时间序列数据的预测性能。电力变压器数据集的详细介绍可以参考下文:1模型整体结构模型整体结构如下所示:分支一:通过基于通道注意力机制(SENet)的TCN模型网络,来自适应地调整通道特征的权重,使模型能够自动学习到不同通道的重要性,提取了多特征序列中与预测目标相关的重要空间特征;分支二:多特征序列数据同时通过基于Gl...
2024-09-14 12:49:54 454浏览 0点赞 0回复 0收藏
1创新模型效果:1.1模型评估:1.2风电功率预测可视化:1.3电力负荷预测可视化:2模型创新点介绍2.1结合Informer和BiGRUGATT的优势Informer:擅长处理长时间序列,能够并行计算,提高了计算效率和预测性能。Informer在Transformer的基础上进行了改进,使其更适合时序数据,特别是具有长时间依赖的序列数据。BiGRUGlobalAttention:通过双向门控循环单元(BiGRU)同时从前向和后向对序列进行建模,以更好地捕获序列中的依赖关系,...
2024-09-12 10:56:04 719浏览 0点赞 0回复 0收藏
1模型创新点介绍1.1时间编码输入信息编码参考Informer论文,我们把源码和数据集制作进行了优化,方便任何带有时间特征列的数据集进行输入信息的编码。Informer在原始向量上不止增加了Transformer架构必备的PositionEmbedding(位置编码)还增加了与时间相关的各种编码:日周期编码:表示一天中的时间点。周周期编码:表示一周中的时间点。月周期编码:表示一个月中的时间点。在时间序列预测任务中,不同时间节点可能蕴藏着重要...
2024-09-04 12:20:25 817浏览 0点赞 0回复 0收藏
SwinTransformer是一种通用视觉任务的Backbone而存在的模型,以替代CNN:(1)层次化设计:SwinTransformer引入了层次化特征表示的概念,类似于CNNs中常见的金字塔结构。这使得它在处理高分辨率图像时更加高效,能够逐步聚合信息,并以多尺度特征应对不同的视觉任务。(2)滑动窗口机制:SwinTransformer通过滑动窗口的方式计算注意力,使得每个窗口内部的注意力计算复杂度大幅降低。这种局部注意力机制有效地解决了ViT在高分辨...
2024-08-30 13:21:39 539浏览 0点赞 0回复 0收藏
SwinTransformer是一种通用视觉任务的Backbone而存在的模型,以替代CNN:图片(1)层次化设计:SwinTransformer引入了层次化特征表示的概念,类似于CNNs中常见的金字塔结构。这使得它在处理高分辨率图像时更加高效,能够逐步聚合信息,并以多尺度特征应对不同的视觉任务。(2)滑动窗口机制:SwinTransformer通过滑动窗口的方式计算注意力,使得每个窗口内部的注意力计算复杂度大幅降低。这种局部注意力机制有效地解决了ViT在高...
2024-08-28 15:28:24 550浏览 0点赞 0回复 0收藏