如何判断LSTM模型中的过拟合与欠拟合

开发 开发工具
判断长短期记忆模型在序列预测问题上是否表现良好可能是一件困难的事。也许你会得到一个不错的模型技术得分,但了解模型是较好的拟合,还是欠拟合/过拟合,以及模型在不同的配置条件下能否实现更好的性能是非常重要的。

在本教程中,你将发现如何诊断 LSTM 模型在序列预测问题上的拟合度。完成教程之后,你将了解:

  • 如何收集 LSTM 模型的训练历史并为其画图。
  • 如何判别一个欠拟合、较好拟合和过拟合的模型。
  • 如何通过平均多次模型运行来开发更鲁棒的诊断方法。

让我们开始吧。

1. Keras 中的训练历史

你可以通过回顾模型的性能随时间的变化来更多地了解模型行为。

LSTM 模型通过调用 fit() 函数进行训练。这个函数会返回一个叫作 history 的变量,该变量包含损失函数的轨迹,以及在模型编译过程中被标记出来的任何一个度量指标。这些得分会在每一个 epoch 的***被记录下来。

  1. ...  
  2. history = model.fit ( ... ) 

例如,如果你的模型被编译用来优化 log loss(binary_crossentropy),并且要在每一个 epoch 中衡量准确率,那么,log loss 和准确率将会在每一个训练 epoch 的历史记录中被计算出,并记录下来。

每一个得分都可以通过由调用 fit() 得到的历史记录中的一个 key 进行访问。默认情况下,拟合模型时优化过的损失函数为「loss」,准确率为「acc」。

  1. model.com pile ( loss='binary_crossentropy'optimizer='adam'metrics= [ 'accuracy' ] ) 
  2.  
  3. history = model.fit ( X, Y, epochs=100 ) 
  4.  
  5. print ( history.history [ 'loss' ] ) 
  6.  
  7. print ( history.history [ 'acc' ] ) 

Keras 还允许在拟合模型时指定独立的验证数据集,该数据集也可以使用同样的损失函数和度量指标进行评估。

该功能可以通过在 fit() 中设置 validation_split 参数来启用,以将训练数据分割出一部分作为验证数据集。

  1. history = model.fit ( X, Y, epochs=100validation_split=0.33 ) 

该功能也可以通过设置 validation_data 参数,并向其传递 X 和 Y 数据集元组来执行。

  1. history = model.fit ( X, Y, epochs=100validation_data= ( valX, valY ) ) 

在验证数据集上计算得到的度量指标会使用相同的命名,只是会附加一个「val_」前缀。

  1. ... 
  2. model.compile(loss='binary_crossentropy',optimizer='adam',metrics=['accuracy']) 
  3. history =model.fit(X,Y,epochs=100,validation_split=0.33) 
  4. print(history.history['loss']) 
  5. print(history.history['acc']) 
  6. print(history.history['val_loss']) 
  7. print(history.history['val_acc']) 

2. 诊断图

LSTM 模型的训练历史可用于诊断模型行为。你可以使用 Matplotlib 库来进行性能的可视化,你可以将训练损失和测试损失都画出来以作比较,如下所示:

  1. frommatplotlib importpyplot 
  2. ... 
  3. history =model.fit(X,Y,epochs=100,validation_data=(valX,valY)) 
  4. pyplot.plot(history.history['loss']) 
  5. pyplot.plot(history.history['val_loss']) 
  6. pyplot.title('model train vs validation loss') 
  7. pyplot.ylabel('loss') 
  8. pyplot.xlabel('epoch') 
  9. pyplot.legend(['train','validation'],loc='upper right'
  10. pyplot.show() 

创建并检查这些图有助于启发你找到新的有可能优化模型性能的配置。

接下来,我们来看一些例子。我们将从损失最小化的角度考虑在训练集和验证集上的建模技巧。

3. 欠拟合实例

欠拟合模型就是在训练集上表现良好而在测试集上性能较差的模型。

这个可以通过以下情况来诊断:训练的损失曲线低于验证的损失曲线,并且验证集中的损失函数表现出了有可能被优化的趋势。

下面是一个人为设计的小的欠拟合 LSTM 模型。

  1. fromkeras.models importSequential 
  2. fromkeras.layers importDense 
  3. fromkeras.layers importLSTM 
  4. frommatplotlib importpyplot 
  5. fromnumpy importarray 
  6. # return training data 
  7. defget_train(): 
  8. seq =[[0.0,0.1],[0.1,0.2],[0.2,0.3],[0.3,0.4],[0.4,0.5]] 
  9. seq =array(seq) 
  10. X,y =seq[:,0],seq[:,1] 
  11. XX =X.reshape((len(X),1,1)) 
  12. returnX,y 
  13. # return validation data 
  14. defget_val(): 
  15. seq =[[0.5,0.6],[0.6,0.7],[0.7,0.8],[0.8,0.9],[0.9,1.0]] 
  16. seq =array(seq) 
  17. X,y =seq[:,0],seq[:,1] 
  18. XX =X.reshape((len(X),1,1)) 
  19. returnX,y 
  20. # define model 
  21. model.add(LSTM(10,input_shape=(1,1))) 
  22. model.add(Dense(1,activation='linear')) 
  23. # compile model 
  24. model.compile(loss='mse',optimizer='adam'
  25. # fit model 
  26. X,y =get_train() 
  27. valX,valY =get_val() 
  28. history =model.fit(X,y,epochs=100,validation_data=(valX,valY),shuffle=False
  29. # plot train and validation loss 
  30. pyplot.plot(history.history['loss']) 
  31. pyplot.plot(history.history['val_loss']) 
  32. pyplot.title('model train vs validation loss') 
  33. pyplot.ylabel('loss') 
  34. pyplot.xlabel('epoch') 
  35. pyplot.legend(['train','validation'],loc='upper right'
  36. pyplot.show() 

运行这个实例会产生一个训练损失和验证损失图,该图显示欠拟合模型特点。在这个案例中,模型性能可能随着训练 epoch 的增加而有所改善。

欠拟合模型的诊断图

欠拟合模型的诊断图

另外,如果模型在训练集上的性能比验证集上的性能好,并且模型性能曲线已经平稳了,那么这个模型也可能欠拟合。下面就是一个缺乏足够的记忆单元的欠拟合模型的例子。

  1. fromkeras.models importSequential 
  2. fromkeras.layers importDense 
  3. fromkeras.layers importLSTM 
  4. frommatplotlib importpyplot 
  5. fromnumpy importarray 
  6. # return training data 
  7. defget_train(): 
  8. seq =[[0.0,0.1],[0.1,0.2],[0.2,0.3],[0.3,0.4],[0.4,0.5]] 
  9. seq =array(seq) 
  10. X,y =seq[:,0],seq[:,1] 
  11. XX =X.reshape((5,1,1)) 
  12. returnX,y 
  13. # return validation data 
  14. defget_val(): 
  15. seq =[[0.5,0.6],[0.6,0.7],[0.7,0.8],[0.8,0.9],[0.9,1.0]] 
  16. seq =array(seq) 
  17. X,y =seq[:,0],seq[:,1] 
  18. XX =X.reshape((len(X),1,1)) 
  19. returnX,y 
  20. # define model 
  21. model.add(LSTM(1,input_shape=(1,1))) 
  22. model.add(Dense(1,activation='linear')) 
  23. # compile model 
  24. model.compile(loss='mae',optimizer='sgd'
  25. # fit model 
  26. X,y =get_train() 
  27. valX,valY =get_val() 
  28. history =model.fit(X,y,epochs=300,validation_data=(valX,valY),shuffle=False
  29. # plot train and validation loss 
  30. pyplot.plot(history.history['loss']) 
  31. pyplot.plot(history.history['val_loss']) 
  32. pyplot.title('model train vs validation loss') 
  33. pyplot.ylabel('loss') 
  34. pyplot.xlabel('epoch') 
  35. pyplot.legend(['train','validation'],loc='upper right'
  36. pyplot.show() 

运行这个实例会展示出一个存储不足的欠拟合模型的特点。

在这个案例中,模型的性能也许会随着模型的容量增加而得到改善,例如隐藏层中记忆单元的数目或者隐藏层的数目增加。

欠拟合模型的状态诊断线图

欠拟合模型的状态诊断线图

4. 良好拟合实例

良好拟合的模型就是模型的性能在训练集和验证集上都比较好。

这可以通过训练损失和验证损失都下降并且稳定在同一个点进行诊断。

下面的小例子描述的就是一个良好拟合的 LSTM 模型。

  1. fromkeras.models importSequential 
  2. fromkeras.layers importDense 
  3. fromkeras.layers importLSTM 
  4. frommatplotlib importpyplot 
  5. fromnumpy importarray 
  6. # return training data 
  7. defget_train(): 
  8. seq =[[0.0,0.1],[0.1,0.2],[0.2,0.3],[0.3,0.4],[0.4,0.5]] 
  9. seq =array(seq) 
  10. X,y =seq[:,0],seq[:,1] 
  11. XX =X.reshape((5,1,1)) 
  12. returnX,y 
  13. # return validation data 
  14. defget_val(): 
  15. seq =[[0.5,0.6],[0.6,0.7],[0.7,0.8],[0.8,0.9],[0.9,1.0]] 
  16. seq =array(seq) 
  17. X,y =seq[:,0],seq[:,1] 
  18. XX =X.reshape((len(X),1,1)) 
  19. returnX,y 
  20. # define model 
  21. model.add(LSTM(10,input_shape=(1,1))) 
  22. model.add(Dense(1,activation='linear')) 
  23. # compile model 
  24. model.compile(loss='mse',optimizer='adam'
  25. # fit model 
  26. X,y =get_train() 
  27. valX,valY =get_val() 
  28. history =model.fit(X,y,epochs=800,validation_data=(valX,valY),shuffle=False
  29. # plot train and validation loss 
  30. pyplot.plot(history.history['loss']) 
  31. pyplot.plot(history.history['val_loss']) 
  32. pyplot.title('model train vs validation loss') 
  33. pyplot.ylabel('loss') 
  34. pyplot.xlabel('epoch') 
  35. pyplot.legend(['train','validation'],loc='upper right'
  36. pyplot.show() 

运行这个实例可以创建一个线图,图中训练损失和验证损失出现重合。

理想情况下,我们都希望模型尽可能是这样,尽管面对大量数据的挑战,这似乎不太可能。

良好拟合模型的诊断线图

良好拟合模型的诊断线图

5. 过拟合实例

过拟合模型即在训练集上性能良好且在某一点后持续增长,而在验证集上的性能到达某一点然后开始下降的模型。

这可以通过线图来诊断,图中训练损失持续下降,验证损失下降到拐点开始上升。

下面这个实例就是一个过拟合 LSTM 模型。

  1. fromkeras.models importSequential 
  2. fromkeras.layers importDense 
  3. fromkeras.layers importLSTM 
  4. frommatplotlib importpyplot 
  5. fromnumpy importarray 
  6. # return training data 
  7. defget_train(): 
  8. seq =[[0.0,0.1],[0.1,0.2],[0.2,0.3],[0.3,0.4],[0.4,0.5]] 
  9. seq =array(seq) 
  10. X,y =seq[:,0],seq[:,1] 
  11. XX =X.reshape((5,1,1)) 
  12. returnX,y 
  13. # return validation data 
  14. defget_val(): 
  15. seq =[[0.5,0.6],[0.6,0.7],[0.7,0.8],[0.8,0.9],[0.9,1.0]] 
  16. seq =array(seq) 
  17. X,y =seq[:,0],seq[:,1] 
  18. XX =X.reshape((len(X),1,1)) 
  19. returnX,y 
  20. # define model 
  21. model.add(LSTM(10,input_shape=(1,1))) 
  22. model.add(Dense(1,activation='linear')) 
  23. # compile model 
  24. model.compile(loss='mse',optimizer='adam'
  25. # fit model 
  26. X,y =get_train() 
  27. valX,valY =get_val() 
  28. history =model.fit(X,y,epochs=1200,validation_data=(valX,valY),shuffle=False
  29. # plot train and validation loss 
  30. pyplot.plot(history.history['loss'][500:]) 
  31. pyplot.plot(history.history['val_loss'][500:]) 
  32. pyplot.title('model train vs validation loss') 
  33. pyplot.ylabel('loss') 
  34. pyplot.xlabel('epoch') 
  35. pyplot.legend(['train','validation'],loc='upper right'
  36. pyplot.show() 

运行这个实例会创建一个展示过拟合模型在验证集中出现拐点的曲线图。

这也许是进行太多训练 epoch 的信号。

在这个案例中,模型会在拐点处停止训练。另外,训练样本的数目可能会增加。

过拟合模型的诊断线图

过拟合模型的诊断线图

6. 多次运行实例

LSTM 是随机的,这意味着每次运行时都会得到一个不同的诊断图。

多次重复诊断运行很有用(如 5、10、30)。每次运行的训练轨迹和验证轨迹都可以被绘制出来,以更鲁棒的方式记录模型随着时间的行为轨迹。

以下实例多次运行同样的实验,然后绘制每次运行的训练损失和验证损失轨迹。

  1. fromkeras.models importSequential 
  2. fromkeras.layers importDense 
  3. fromkeras.layers importLSTM 
  4. frommatplotlib importpyplot 
  5. fromnumpy importarray 
  6. frompandas importDataFrame 
  7. # return training data 
  8. defget_train(): 
  9. seq =[[0.0,0.1],[0.1,0.2],[0.2,0.3],[0.3,0.4],[0.4,0.5]] 
  10. seq =array(seq) 
  11. X,y =seq[:,0],seq[:,1] 
  12. XX =X.reshape((5,1,1)) 
  13. returnX,y 
  14. # return validation data 
  15. defget_val(): 
  16. seq =[[0.5,0.6],[0.6,0.7],[0.7,0.8],[0.8,0.9],[0.9,1.0]] 
  17. seq =array(seq) 
  18. X,y =seq[:,0],seq[:,1] 
  19. XX =X.reshape((len(X),1,1)) 
  20. returnX,y 
  21. # collect data across multiple repeats 
  22. train =DataFrame() 
  23. val =DataFrame() 
  24. fori inrange(5): 
  25. # define model 
  26. model.add(LSTM(10,input_shape=(1,1))) 
  27. model.add(Dense(1,activation='linear')) 
  28. # compile model 
  29. model.compile(loss='mse',optimizer='adam'
  30. X,y =get_train() 
  31. valX,valY =get_val() 
  32. # fit model 
  33. history =model.fit(X,y,epochs=300,validation_data=(valX,valY),shuffle=False
  34. # story history 
  35. train[str(i)]=history.history['loss'] 
  36. val[str(i)]=history.history['val_loss'] 
  37. # plot train and validation loss across multiple runs 
  38. pyplot.plot(train,color='blue',label='train'
  39. pyplot.plot(val,color='orange',label='validation'
  40. pyplot.title('model train vs validation loss') 
  41. pyplot.ylabel('loss') 
  42. pyplot.xlabel('epoch') 
  43. pyplot.show() 

从下图中,我们可以在 5 次运行中看到欠拟合模型的通常趋势,该案例强有力地证明增加训练 epoch 次数的有效性。

模型多次运行的诊断线图

模型多次运行的诊断线图

扩展阅读

如果你想更深入地了解这方面的内容,这一部分提供了更丰富的资源。

  • Keras 的历史回调 API(History Callback Keras API,https://keras.io/callbacks/#history)
  • 维基百科中关于机器学习的学习曲线(Learning Curve in Machine Learning on Wikipedia,https://en.wikipedia.org/wiki/Learning_curve#In_machine_learning)
  • 维基百科上关于过拟合的描述(Overfitting on Wikipedia,https://en.wikipedia.org/wiki/Overfitting)

原文:https://machinelearningmastery.com/diagnose-overfitting-underfitting-lstm-models/

【本文是51CTO专栏机构“机器之心”的原创译文,微信公众号“机器之心( id: almosthuman2014)”】

 

戳这里,看该作者更多好文

责任编辑:赵宁宁 来源: 51CTO专栏
相关推荐

2024-04-29 14:54:36

机器学习过拟合模型人工智能

2022-08-10 15:56:40

机器学习算法深度学习

2023-03-06 14:12:47

深度学习

2020-06-05 08:38:39

python散点图拟合

2021-01-20 15:30:25

模型人工智能深度学习

2019-12-20 09:15:48

神经网络数据图形

2020-07-14 10:40:49

Keras权重约束神经网络

2022-09-25 23:19:01

机器学习决策树Python

2024-08-27 15:33:57

2023-04-10 15:48:41

代码计算

2023-10-30 10:29:50

C++最小二乘法

2020-06-05 18:57:41

BiLSTMCRF算法

2018-07-03 09:12:23

深度学习正则化Python

2022-05-30 15:44:33

模型训练GAN

2017-08-19 08:36:25

贝叶斯优化超参数函数

2018-08-30 09:36:10

编程语言Python机器学习

2022-10-25 16:36:03

机器学习深度学习数据集

2024-05-06 08:25:00

AI模型

2024-09-26 07:39:46

点赞
收藏

51CTO技术栈公众号