用Python神经网络预测汽车保险支出

开发 后端 深度学习
在本教程中,您将发现如何为瑞典汽车保险回归数据集开发多层Perceptron神经网络模型。

 [[381201]]

为新数据集开发神经网络预测模型可能具有挑战性。

一种方法是首先检查数据集并为可能使用的模型开发思路,然后探索数据集上简单模型的学习动态,然后最后使用健壮的测试工具为数据集开发和调整模型。此过程可用于为分类和回归预测建模问题开发有效的神经网络模型。

在本教程中,您将发现如何为瑞典汽车保险回归数据集开发多层Perceptron神经网络模型。完成本教程后,您将知道:

  •  如何加载和汇总瑞典汽车保险数据集,以及如何使用结果建议要使用的数据准备和模型配置。
  •  如何探索简单的MLP模型的学习动态以及数据集上的数据转换。
  •  如何开发出对模型性能的可靠估计,调整模型性能以及对新数据进行预测。

教程概述

本教程分为四个部分。他们是:

  •  汽车保险回归数据集
  •  首个MLP和学习动力
  •  评估和调整MLP模型
  •  最终模型和做出预测

汽车保险回归数据集

第一步是定义和探索数据集。我们将使用“汽车保险”标准回归数据集。该数据集描述了瑞典的汽车保险。只有一个输入变量,即索赔的数量,目标变量是以数千瑞典克朗为单位的索赔总额。目的是在给定索赔数量的情况下预测总付款额。

您可以在此处了解有关数据集的更多信息:

  •  汽车保险数据集(auto-insurance.csv)
  •  汽车保险数据集详细信息(auto-insurance.names)

您可以在下面看到数据集的前几行。 

  1. 108,392.5  
  2. 19,46.2  
  3. 13,15.7  
  4. 124,422.2  
  5. 40,119.4 

我们可以看到这些值是数字的,范围从几十到几百。这表明在使用神经网络进行建模时,某种类型的缩放比例适合于数据。

我们可以直接从URL将数据集作为pandas DataFrame加载;例如: 

  1. # load the dataset and summarize the shape  
  2. from pandas import read_csv  
  3. # define the location of the dataset  
  4. url = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'  
  5. # load the dataset  
  6. df = read_csv(url, header=None 
  7. # summarize shape  
  8. print(df.shape) 

运行示例将直接从URL加载数据集并报告数据集的形状。

在这种情况下,我们可以确认该数据集具有两个变量(一个输入和一个输出),并且该数据集具有63行数据。

对于神经网络来说,这不是很多数据行,这表明一个小型的网络(可能带有正则化)将是合适的。

这也表明使用k倍交叉验证是一个好主意,因为与火车/测试拆分相比,它可以提供更可靠的模型性能估算值,并且因为单个模型可以在数秒而不是数小时或数天的时间内完成拟合。最大的数据集。 

  1. (63, 2) 

接下来,我们可以通过查看摘要统计信息和数据图来了解有关数据集的更多信息。 

  1. # show summary statistics and plots of the dataset  
  2. from pandas import read_csv  
  3. from matplotlib import pyplot  
  4. # define the location of the dataset  
  5. url = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'  
  6. # load the dataset  
  7. df = read_csv(url, header=None 
  8. # show summary statistics  
  9. print(df.describe())  
  10. # plot histograms  
  11. df.hist()  
  12. pyplot.show() 

运行示例之前,先加载数据,然后输出每个变量的摘要统计信息

我们可以看到每个变量的平均值在十个以内,范围从0到数百。这证实了缩放数据可能是一个好主意。 

  1.               0           1  
  2. count   63.000000   63.000000  
  3. mean    22.904762   98.187302  
  4. std     23.351946   87.327553  
  5. min      0.000000    0.000000  
  6. 25%      7.500000   38.850000  
  7. 50%     14.000000   73.400000  
  8. 75%     29.000000  140.000000  
  9. max    124.000000  422.200000 

然后为每个变量创建一个直方图。

我们可以看到每个变量都有相似的分布。它看起来像偏态的高斯分布或指数分布。

我们可以在每个变量上使用幂变换来降低概率分布的偏斜度,这可能会提高模型性能。

现在我们已经熟悉了数据集,让我们探讨如何开发神经网络模型。

首个MLP和学习动力

我们将使用TensorFlow为数据集开发一个多层感知器(MLP)模型。我们不知道学习超参数的哪种模型架构对这个数据集将是好的还是最好的,所以我们必须进行实验并发现什么是行之有效的。假设数据集很小,则小批量可能是个好主意,例如8或16行。入门时,使用Adam版本的随机梯度下降法是一个好主意,因为它会自动适应学习率,并且在大多数数据集上都能很好地工作。在认真评估模型之前,最好回顾一下学习动态并调整模型体系结构和学习配置,直到我们拥有稳定的学习动态,然后再充分利用模型。

我们可以通过简单的训练/测试数据拆分并查看学习曲线图来实现。这将帮助我们了解我们是学习过度还是学习不足;然后我们可以相应地调整配置。首先,我们可以将数据集分为输入和输出变量,然后分为67/33训练和测试集。 

  1. # split into input and output columns  
  2. X, y = df.values[:, :-1], df.values[:, -1]  
  3. # split into train and test datasets  
  4. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33) 

接下来,我们可以定义一个最小的MLP模型。在这种情况下,我们将使用一个包含10个节点的隐藏层和一个输出层(任意选择)。我们将在隐藏层中使用ReLU激活功能和“ he_normal”权重初始化,因为它们是一种很好的做法。

模型的输出是线性激活(不激活),我们将最小化均方误差(MSE)损失。 

  1. # determine the number of input features  
  2. n_features = X.shape[1]  
  3. # define model  
  4. model = Sequential()  
  5. model.add(Dense(10, activation='relu'kernel_initializer='he_normal'input_shape=(n_features,)))  
  6. model.add(Dense(1))  
  7. # compile the model  
  8. model.compile(optimizer='adam'loss='mse'

我们将模型拟合为100个训练时期(任意选择),批量为8个,因为它是一个很小的数据集。我们正在原始数据上拟合模型,我们认为这可能不是一个好主意,但这是一个重要的起点。 

  1. # fit the model  
  2. history = model.fit(X_train, y_train, epochs=100batch_size=8verbose=0validation_data=(X_test,y_test)) 

在训练结束时,我们将评估模型在测试数据集上的性能,并将性能报告为平均绝对误差(MAE),我通常更喜欢MSE或RMSE。 

  1. # predict test set  
  2. yhat = model.predict(X_test)  
  3. # evaluate predictions  
  4. score = mean_absolute_error(y_test, yhat)  
  5. print('MAE: %.3f' % score) 

最后,我们将在训练期间在训练和测试集上绘制MSE损失的学习曲线。 

  1. # plot learning curves  
  2. pyplot.title('Learning Curves')  
  3. pyplot.xlabel('Epoch')  
  4. pyplot.ylabel('Mean Squared Error')  
  5. pyplot.plot(history.history['loss'], label='train' 
  6. pyplot.plot(history.history['val_loss'], label='val' 
  7. pyplot.legend()  
  8. pyplot.show() 

综上所述,下面列出了评估我们在汽车保险数据集上的第一个MLP的完整示例。 

  1. # fit a simple mlp model and review learning curves  
  2. from pandas import read_csv  
  3. from sklearn.model_selection import train_test_split  
  4. from sklearn.metrics import mean_absolute_error  
  5. from tensorflow.keras import Sequential  
  6. from tensorflow.keras.layers import Dense  
  7. from matplotlib import pyplot  
  8. # load the dataset  
  9. path = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'  
  10. df = read_csv(path, header=None 
  11. # split into input and output columns  
  12. X, y = df.values[:, :-1], df.values[:, -1]  
  13. # split into train and test datasets  
  14. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33)  
  15. # determine the number of input features  
  16. n_features = X.shape[1]  
  17. # define model  
  18. model = Sequential()  
  19. model.add(Dense(10, activation='relu'kernel_initializer='he_normal'input_shape=(n_features,)))  
  20. model.add(Dense(1))  
  21. # compile the model  
  22. model.compile(optimizer='adam'loss='mse' 
  23. # fit the model  
  24. history = model.fit(X_train, y_train, epochs=100batch_size=8verbose=0validation_data=(X_test,y_test))  
  25. # predict test set  
  26. yhat = model.predict(X_test)  
  27. # evaluate predictions  
  28. score = mean_absolute_error(y_test, yhat)  
  29. print('MAE: %.3f' % score)  
  30. # plot learning curves  
  31. pyplot.title('Learning Curves')  
  32. pyplot.xlabel('Epoch')  
  33. pyplot.ylabel('Mean Squared Error')  
  34. pyplot.plot(history.history['loss'], label='train' 
  35. pyplot.plot(history.history['val_loss'], label='val' 
  36. pyplot.legend()  
  37. pyplot.show() 

运行示例首先使模型适合训练数据集,然后报告测试数据集的MAE。

注意:由于算法或评估程序的随机性,或者数值精度的差异,您的结果可能会有所不同。考虑运行该示例几次并比较平均结果。

在这种情况下,我们可以看到该模型实现了大约33.2的MAE,这是性能的良好基准,我们可能可以对其进行改进。 

  1. MAE: 33.233 

然后在火车和测试装置上创建MSE的线图。

我们可以看到该模型具有良好的拟合度,并且收敛良好。模型的配置是一个很好的起点。

到目前为止,学习动力很好,MAE是一个粗略的估计,不应该被依赖。

我们可能可以稍微增加模型的容量,并期待类似的学习动态。例如,我们可以添加具有八个节点(任意选择)的第二个隐藏层,并将训练时期数增加一倍至200。 

  1. # define model  
  2. model = Sequential()  
  3. model.add(Dense(10, activation='relu'kernel_initializer='he_normal'input_shape=(n_features,)))  
  4. model.add(Dense(8, activation='relu'kernel_initializer='he_normal'))  
  5. model.add(Dense(1))  
  6. # compile the model 
  7. model.compile(optimizer='adam'loss='mse' 
  8. # fit the model  
  9. history = model.fit(X_train, y_train, epochs=200batch_size=8verbose=0validation_data=(X_test,y_test)) 

完整实例如下: 

  1. # fit a deeper mlp model and review learning curves  
  2. from pandas import read_csv  
  3. from sklearn.model_selection import train_test_split  
  4. from sklearn.metrics import mean_absolute_error  
  5. from tensorflow.keras import Sequential  
  6. from tensorflow.keras.layers import Dense  
  7. from matplotlib import pyplot 
  8. # load the dataset  
  9. path = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'  
  10. df = read_csv(path, header=None 
  11. # split into input and output columns  
  12. X, y = df.values[:, :-1], df.values[:, -1]  
  13. # split into train and test datasets  
  14. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33)  
  15. # determine the number of input features  
  16. n_features = X.shape[1]  
  17. # define model  
  18. model = Sequential()  
  19. model.add(Dense(10, activation='relu'kernel_initializer='he_normal'input_shape=(n_features,)))  
  20. model.add(Dense(8, activation='relu'kernel_initializer='he_normal'))  
  21. model.add(Dense(1))  
  22. # compile the model  
  23. model.compile(optimizer='adam'loss='mse' 
  24. # fit the model  
  25. history = model.fit(X_train, y_train, epochs=200batch_size=8verbose=0validation_data=(X_test,y_test))  
  26. # predict test set  
  27. yhat = model.predict(X_test)  
  28. # evaluate predictions  
  29. score = mean_absolute_error(y_test, yhat)  
  30. print('MAE: %.3f' % score)  
  31. # plot learning curves  
  32. pyplot.title('Learning Curves')  
  33. pyplot.xlabel('Epoch')  
  34. pyplot.ylabel('Mean Squared Error')  
  35. pyplot.plot(history.history['loss'], label='train' 
  36. pyplot.plot(history.history['val_loss'], label='val' 
  37. pyplot.legend()  
  38. pyplot.show() 

运行示例首先使模型适合训练数据集,然后报告测试数据集的MAE。

注意:由于算法或评估程序的随机性,或者数值精度的差异,您的结果可能会有所不同。考虑运行该示例几次并比较平均结果。

在这种情况下,我们可以看到MAE略有改善,约为27.9,尽管训练/测试拆分的高方差意味着该评估是不可靠的。 

  1. MAE: 27.939 

然后绘制MSE训练和测试集的学习曲线。我们可以看到,正如预期的那样,该模型在合理的迭代次数内实现了良好的拟合和收敛。

最后,我们可以尝试转换数据,看看它如何影响学习动力。

在这种情况下,我们将使用幂变换来减少数据分布的偏差。这还将自动标准化变量,以使它们的平均值为零,标准偏差为1,这是使用神经网络进行建模时的一种好习惯。

首先,我们必须确保目标变量是二维数组。 

  1. # ensure that the target variable is a 2d array  
  2. y_train, y_test = y_train.reshape((len(y_train),1)), y_test.reshape((len(y_test),1)) 

接下来,我们可以将PowerTransformer应用于输入变量和目标变量。

这可以通过首先将转换适合训练数据,然后转换训练和测试集来实现。

此过程将分别应用于输入和输出变量,以避免数据泄漏。 

  1. # power transform input data  
  2. pt1 = PowerTransformer()  
  3. pt1.fit(X_train)  
  4. X_train = pt1.transform(X_train)  
  5. X_test = pt1.transform(X_test)  
  6. # power transform output data  
  7. pt2 = PowerTransformer()  
  8. pt2.fit(y_train)  
  9. y_train = pt2.transform(y_train)  
  10. y_test = pt2.transform(y_test) 

然后将数据用于拟合模型。

后面可以根据模型做出的预测以及测试集中的预期目标值对变换进行求逆,我们可以像以前一样以正确的比例计算MAE。 

  1. # inverse transforms on target variable  
  2. y_test = pt2.inverse_transform(y_test)  
  3. yhat = pt2.inverse_transform(yhat) 

结合在一起,下面列出了使用转换后的数据拟合和评估MLP以及创建模型的学习曲线的完整示例。 

  1. # fit a mlp model with data transforms and review learning curves  
  2. from pandas import read_csv  
  3. from sklearn.model_selection import train_test_split  
  4. from sklearn.metrics import mean_absolute_error 
  5. from sklearn.preprocessing import PowerTransformer  
  6. from tensorflow.keras import Sequential  
  7. from tensorflow.keras.layers import Dense  
  8. from matplotlib import pyplot  
  9. # load the dataset  
  10. path = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'  
  11. df = read_csv(path, header=None 
  12. # split into input and output columns  
  13. X, y = df.values[:, :-1], df.values[:, -1]  
  14. # split into train and test datasets  
  15. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33)  
  16. # ensure that the target variable is a 2d array  
  17. y_train, y_test = y_train.reshape((len(y_train),1)), y_test.reshape((len(y_test),1))  
  18. # power transform input data 
  19. pt1 = PowerTransformer()  
  20. pt1.fit(X_train)  
  21. X_train = pt1.transform(X_train)  
  22. X_test = pt1.transform(X_test)  
  23. # power transform output data  
  24. pt2 = PowerTransformer()  
  25. pt2.fit(y_train)  
  26. y_train = pt2.transform(y_train)  
  27. y_test = pt2.transform(y_test)  
  28. # determine the number of input features  
  29. n_features = X.shape[1]  
  30. # define model  
  31. model = Sequential()  
  32. model.add(Dense(10, activation='relu'kernel_initializer='he_normal'input_shape=(n_features,)))  
  33. model.add(Dense(8, activation='relu'kernel_initializer='he_normal'))  
  34. model.add(Dense(1))  
  35. # compile the model  
  36. model.compile(optimizer='adam'loss='mse' 
  37. # fit the model  
  38. history = model.fit(X_train, y_train, epochs=200batch_size=8verbose=0validation_data=(X_test,y_test))  
  39. # predict test set  
  40. yhat = model.predict(X_test)  
  41. # inverse transforms on target variable  
  42. y_test = pt2.inverse_transform(y_test)  
  43. yhat = pt2.inverse_transform(yhat)  
  44. # evaluate predictions  
  45. score = mean_absolute_error(y_test, yhat) 
  46. print('MAE: %.3f' % score)  
  47. # plot learning curves  
  48. pyplot.title('Learning Curves')  
  49. pyplot.xlabel('Epoch')  
  50. pyplot.ylabel('Mean Squared Error')  
  51. pyplot.plot(history.history['loss'], label='train') 
  52. pyplot.plot(history.history['val_loss'], label='val' 
  53. pyplot.legend()  
  54. pyplot.show() 

运行示例首先使模型适合训练数据集,然后报告测试数据集的MAE。

注意:由于算法或评估程序的随机性,或者数值精度的差异,您的结果可能会有所不同。考虑运行该示例几次并比较平均结果。

在这种情况下,该模型可以达到合理的MAE分数,尽管比以前报告的性能差。我们暂时将忽略模型性能。 

  1. MAE: 34.320 

创建了学习曲线的线图,表明该模型达到了合理的拟合并且有足够的时间收敛。

 

现在,我们对带有或不带有数据转换的简单MLP模型的学习动态有了一些了解,现在我们可以看一下评估模型的性能以及调整模型的配置。

评估和调整MLP模型

k倍交叉验证过程可以提供更可靠的MLP性能估计,尽管它可能非常慢。这是因为必须拟合和评估k个模型。当数据集大小较小时(例如汽车保险数据集),这不是问题。我们可以使用KFold类创建拆分并手动枚举每个折叠,拟合模型,对其进行评估,然后在过程结束时报告评估分数的平均值。 

  1. # prepare cross validation  
  2. kfold = KFold(10)  
  3. # enumerate splits  
  4. scores = list()  
  5. for train_ix, test_ix in kfold.split(X, y):  
  6.  # fit and evaluate the model...  
  7.  ...  
  8. ...  
  9. # summarize all scores  
  10. print('Mean MAE: %.3f (%.3f)' % (mean(scores), std(scores))) 

我们可以使用此框架通过一系列不同的数据准备,模型架构和学习配置来开发MLP模型性能的可靠估计。

重要的是,在使用k-fold交叉验证来评估性能之前,我们首先对上一部分中的数据集模型的学习动态有了了解。如果我们开始直接调整模型,我们可能会获得良好的结果,但是如果没有,我们可能不知道为什么,例如 模型超出或不足。

如果我们再次对模型进行较大的更改,则最好返回并确认模型正在适当收敛。

下面列出了评估上一节中的基本MLP模型的此框架的完整示例。 

  1. # k-fold cross-validation of base model for the auto insurance regression dataset  
  2. from numpy import mean  
  3. from numpy import std  
  4. from pandas import read_csv  
  5. from sklearn.model_selection import KFold  
  6. from sklearn.metrics import mean_absolute_error  
  7. from tensorflow.keras import Sequential  
  8. from tensorflow.keras.layers import Dense  
  9. from matplotlib import pyplot  
  10. # load the dataset  
  11. path = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'  
  12. df = read_csv(path, header=None 
  13. # split into input and output columns  
  14. X, y = df.values[:, :-1], df.values[:, -1]  
  15. # prepare cross validation  
  16. kfold = KFold(10)  
  17. # enumerate splits  
  18. scores = list()  
  19. for train_ix, test_ix in kfold.split(X, y):  
  20.  # split data  
  21.  X_train, X_test, y_train, y_test = X[train_ix], X[test_ix], y[train_ix], y[test_ix]  
  22.  # determine the number of input features  
  23.  n_features = X.shape[1]  
  24.  # define model  
  25.  model = Sequential() 
  26.  model.add(Dense(10, activation='relu'kernel_initializer='he_normal'input_shape=(n_features,)))  
  27.  model.add(Dense(1))  
  28.  # compile the model  
  29.  model.compile(optimizer='adam'loss='mse' 
  30.  # fit the model 
  31.  model.fit(X_train, y_train, epochs=100batch_size=8verbose=0 
  32.  # predict test set  
  33.  yhat = model.predict(X_test)  
  34.  # evaluate predictions  
  35.  score = mean_absolute_error(y_test, yhat)  
  36.  print('>%.3f' % score)  
  37.  scores.append(score)  
  38. # summarize all scores  
  39. print('Mean MAE: %.3f (%.3f)' % (mean(scores), std(scores))) 

运行示例将在评估过程的每次迭代中报告模型性能,并在运行结束时报告MAE的平均值和标准偏差。

注意:由于算法或评估程序的随机性,或者数值精度的差异,您的结果可能会有所不同。考虑运行该示例几次并比较平均结果。

在这种情况下,我们可以看到MLP模型的MAE约为38.913。

我们将使用此结果作为基准,以查看是否可以实现更好的性能。 

  1. >27.314  
  2. >69.577  
  3. >20.891  
  4. >14.810  
  5. >13.412  
  6. >69.540  
  7. >25.612  
  8. >49.508  
  9. >35.769  
  10. >62.696  
  11. Mean MAE: 38.913 (21.056) 

首先,让我们尝试在原始数据集上评估更深的模型,以查看其性能是否比基准模型更好。 

  1. # define model  
  2. model = Sequential()  
  3. model.add(Dense(10, activation='relu'kernel_initializer='he_normal'input_shape=(n_features,)))  
  4. model.add(Dense(8, activation='relu'kernel_initializer='he_normal')) 
  5. model.add(Dense(1))  
  6. # compile the model  
  7. model.compile(optimizer='adam'loss='mse' 
  8. # fit the model  
  9. model.fit(X_train, y_train, epochs=200batch_size=8verbose=0

完整实例如下: 

  1. # k-fold cross-validation of deeper model for the auto insurance regression dataset  
  2. from numpy import mean  
  3. from numpy import std  
  4. from pandas import read_csv  
  5. from sklearn.model_selection import KFold  
  6. from sklearn.metrics import mean_absolute_error  
  7. from tensorflow.keras import Sequential  
  8. from tensorflow.keras.layers import Dense  
  9. from matplotlib import pyplot  
  10. # load the dataset  
  11. path = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'  
  12. df = read_csv(path, header=None 
  13. # split into input and output columns  
  14. X, y = df.values[:, :-1], df.values[:, -1]  
  15. # prepare cross validation  
  16. kfold = KFold(10)  
  17. # enumerate splits  
  18. scores = list()  
  19. for train_ix, test_ix in kfold.split(X, y):  
  20.  # split data  
  21.  X_train, X_test, y_train, y_test = X[train_ix], X[test_ix], y[train_ix], y[test_ix]  
  22.  # determine the number of input features  
  23.  n_features = X.shape[1]  
  24.  # define model  
  25.  model = Sequential()  
  26.  model.add(Dense(10, activation='relu'kernel_initializer='he_normal'input_shape=(n_features,)))  
  27.  model.add(Dense(8, activation='relu'kernel_initializer='he_normal'))  
  28.  model.add(Dense(1)) 
  29.  # compile the model  
  30.  model.compile(optimizer='adam'loss='mse' 
  31.  # fit the model  
  32.  model.fit(X_train, y_train, epochs=200batch_size=8verbose=0 
  33.  # predict test set  
  34.  yhat = model.predict(X_test)  
  35.  # evaluate predictions 
  36.  score = mean_absolute_error(y_test, yhat)  
  37.  print('>%.3f' % score)  
  38.  scores.append(score)  
  39. # summarize all scores  
  40. print('Mean MAE: %.3f (%.3f)' % (mean(scores), std(scores))) 

运行报告运行结束时MAE的平均值和标准偏差。

注意:由于算法或评估程序的随机性,或者数值精度的差异,您的结果可能会有所不同。考虑运行该示例几次并比较平均结果。

在这种情况下,我们可以看到MLP模型获得的MAE约为35.384,这略好于获得MAE约为38.913的基线模型。 

  1. Mean MAE: 35.384 (14.951) 

接下来,让我们尝试使用与上一节相同的对输入和目标变量进行幂变换的模型。

下面列出了完整的示例。 

  1. # k-fold cross-validation of deeper model with data transforms  
  2. from numpy import mean  
  3. from numpy import std  
  4. from pandas import read_csv  
  5. from sklearn.model_selection import KFold  
  6. from sklearn.metrics import mean_absolute_error  
  7. from sklearn.preprocessing import PowerTransformer  
  8. from tensorflow.keras import Sequential  
  9. from tensorflow.keras.layers import Dense  
  10. from matplotlib import pyplot  
  11. # load the dataset 
  12. path = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'  
  13. df = read_csv(path, header=None 
  14. # split into input and output columns  
  15. X, y = df.values[:, :-1], df.values[:, -1]  
  16. # prepare cross validation  
  17. kfold = KFold(10)  
  18. # enumerate splits  
  19. scores = list()  
  20. for train_ix, test_ix in kfold.split(X, y):  
  21.  # split data  
  22.  X_train, X_test, y_train, y_test = X[train_ix], X[test_ix], y[train_ix], y[test_ix]  
  23.  # ensure target is a 2d array  
  24.  y_train, y_test = y_train.reshape((len(y_train),1)), y_test.reshape((len(y_test),1))  
  25.  # prepare input data  
  26.  pt1 = PowerTransformer()  
  27.  pt1.fit(X_train)  
  28.  X_train = pt1.transform(X_train) 
  29.  X_test = pt1.transform(X_test)  
  30.  # prepare target  
  31.  pt2 = PowerTransformer()  
  32.  pt2.fit(y_train)  
  33.  y_train = pt2.transform(y_train)  
  34.  y_test = pt2.transform(y_test)  
  35.  # determine the number of input features  
  36.  n_features = X.shape[1]  
  37.  # define model  
  38.  model = Sequential() 
  39.  model.add(Dense(10, activation='relu'kernel_initializer='he_normal'input_shape=(n_features,)))  
  40.  model.add(Dense(8, activation='relu'kernel_initializer='he_normal'))  
  41.  model.add(Dense(1))  
  42.  # compile the model  
  43.  model.compile(optimizer='adam'loss='mse' 
  44.  # fit the model  
  45.  model.fit(X_train, y_train, epochs=200batch_size=8verbose=0 
  46.  # predict test set  
  47.  yhat = model.predict(X_test)  
  48.  # inverse transforms  
  49.  y_test = pt2.inverse_transform(y_test)  
  50.  yhat = pt2.inverse_transform(yhat)  
  51.  # evaluate predictions  
  52.  score = mean_absolute_error(y_test, yhat)  
  53.  print('>%.3f' % score)  
  54.  scores.append(score)  
  55. # summarize all scores  
  56. print('Mean MAE: %.3f (%.3f)' % (mean(scores), std(scores))) 

运行报告运行结束时MAE的平均值和标准偏差。

注意:由于算法或评估程序的随机性,或者数值精度的差异,您的结果可能会有所不同。考虑运行该示例几次并比较平均结果。

在这种情况下,我们可以看到MLP模型获得的MAE约为37.371,这比基准模型好,但不比更深的基准模型好。

也许这种转变没有我们最初认为的那样有用。 

  1. Mean MAE: 37.371 (29.326) 

另一种变换是对输入变量和目标变量进行规范化。

这意味着将每个变量的值缩放到[0,1]范围。我们可以使用MinMaxScaler来实现。例如: 

  1. # prepare input data  
  2. pt1 = MinMaxScaler()  
  3. pt1.fit(X_train)  
  4. X_train = pt1.transform(X_train)  
  5. X_test = pt1.transform(X_test)  
  6. # prepare target  
  7. pt2 = MinMaxScaler()  
  8. pt2.fit(y_train) 
  9. y_train = pt2.transform(y_train)  
  10. y_test = pt2.transform(y_test) 

结合在一起,下面列出了使用数据规范化评估更深层MLP的完整示例。 

  1. # k-fold cross-validation of deeper model with normalization transforms  
  2. from numpy import mean  
  3. from numpy import std  
  4. from pandas import read_csv  
  5. from sklearn.model_selection import KFold  
  6. from sklearn.metrics import mean_absolute_error  
  7. from sklearn.preprocessing import MinMaxScaler  
  8. from tensorflow.keras import Sequential  
  9. from tensorflow.keras.layers import Dense  
  10. from matplotlib import pyplot  
  11. # load the dataset  
  12. path = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'  
  13. df = read_csv(path, header=None 
  14. # split into input and output columns  
  15. X, y = df.values[:, :-1], df.values[:, -1]  
  16. # prepare cross validation  
  17. kfold = KFold(10)  
  18. # enumerate splits  
  19. scores = list()  
  20. for train_ix, test_ix in kfold.split(X, y):  
  21.  # split data  
  22.  X_train, X_test, y_train, y_test = X[train_ix], X[test_ix], y[train_ix], y[test_ix]  
  23.  # ensure target is a 2d array  
  24.  y_train, y_test = y_train.reshape((len(y_train),1)), y_test.reshape((len(y_test),1))  
  25.  # prepare input data  
  26.  pt1 = MinMaxScaler()  
  27.  pt1.fit(X_train)  
  28.  X_train = pt1.transform(X_train)  
  29.  X_test = pt1.transform(X_test)  
  30.  # prepare target  
  31.  pt2 = MinMaxScaler()  
  32.  pt2.fit(y_train)  
  33.  y_train = pt2.transform(y_train)  
  34.  y_test = pt2.transform(y_test)  
  35.  # determine the number of input features  
  36.  n_features = X.shape[1]  
  37.  # define model  
  38.  model = Sequential()  
  39.  model.add(Dense(10, activation='relu'kernel_initializer='he_normal'input_shape=(n_features,)))  
  40.  model.add(Dense(8, activation='relu'kernel_initializer='he_normal'))  
  41.  model.add(Dense(1))  
  42.  # compile the model  
  43.  model.compile(optimizer='adam'loss='mse' 
  44.  # fit the model  
  45.  model.fit(X_train, y_train, epochs=200batch_size=8verbose=0 
  46.  # predict test set 
  47.  yhat = model.predict(X_test)  
  48.  # inverse transforms  
  49.  y_test = pt2.inverse_transform(y_test)  
  50.  yhat = pt2.inverse_transform(yhat)  
  51.  # evaluate predictions  
  52.  score = mean_absolute_error(y_test, yhat)  
  53.  print('>%.3f' % score)  
  54.  scores.append(score)  
  55. # summarize all scores  
  56. print('Mean MAE: %.3f (%.3f)' % (mean(scores), std(scores))) 

运行报告运行结束时MAE的平均值和标准偏差。

注意:由于算法或评估程序的随机性,或者数值精度的差异,您的结果可能会有所不同。考虑运行该示例几次并比较平均结果。

在这种情况下,我们可以看到MLP模型获得的MAE约为30.388,这比我们迄今为止尝试过的任何其他配置都要好。 

  1. Mean MAE: 30.388 (14.258) 

我们可以继续测试模型架构的替代配置(更多或更少的节点或层),学习超参数(更多或更少的批处理)以及数据转换。

我将其保留为练习;让我知道你发现了什么。您可以获得更好的结果吗?

将您的结果发表在下面的评论中,我很乐意看到您所得到的。

接下来,让我们看看如何拟合最终模型并使用它进行预测。

最终模型和做出预测

选择模型配置后,我们可以在所有可用数据上训练最终模型,并使用它对新数据进行预测。在这种情况下,我们将使用数据标准化的更深层模型作为最终模型。这意味着,如果我们想将模型保存到文件中,则必须保存模型本身(用于进行预测),输入数据的转换(用于新的输入数据)和目标变量的转换(用于新预测)。尽管可以在整个数据集而不是数据集的训练子集上,但我们仍可以像以前一样准备数据并拟合模型。 

  1. # split into input and output columns  
  2. X, y = df.values[:, :-1], df.values[:, -1]  
  3. # ensure target is a 2d array  
  4. yy = y.reshape((len(y),1))  
  5. # prepare input data  
  6. pt1 = MinMaxScaler()  
  7. pt1.fit(X)  
  8. X = pt1.transform(X)  
  9. # prepare target  
  10. pt2 = MinMaxScaler()  
  11. pt2.fit(y)  
  12. y = pt2.transform(y)  
  13. # determine the number of input features  
  14. n_features = X.shape[1]  
  15. # define model  
  16. model = Sequential()  
  17. model.add(Dense(10, activation='relu'kernel_initializer='he_normal'input_shape=(n_features,)))  
  18. model.add(Dense(8, activation='relu'kernel_initializer='he_normal'))  
  19. model.add(Dense(1))  
  20. # compile the model  
  21. model.compile(optimizer='adam'loss='mse'

然后,我们可以使用此模型对新数据进行预测。首先,我们可以定义一行新数据,这只是该数据集的一个变量。 

  1. # define a row of new data  
  2. row = [13] 

然后,我们可以转换此新数据,以准备用作模型的输入。 

  1. # transform the input data  
  2. X_new = pt1.transform([row]) 

然后我们可以做出预测。 

  1. # make prediction  
  2. yhat = model.predict(X_new) 

然后将预测的变换反转,以便我们可以按正确的比例使用或解释结果。 

  1. # invert transform on prediction  
  2. yhat = pt2.inverse_transform(yhat) 

在这种情况下,我们将仅报告预测。 

  1. # report prediction  
  2. print('f(%s) = %.3f' % (row, yhat[0])) 

综上所述,下面列出了为汽车保险数据集拟合最终模型并使用其对新数据进行预测的完整示例。 

  1. # fit a final model and make predictions on new data.  
  2. from pandas import read_csv  
  3. from sklearn.model_selection import KFold  
  4. from sklearn.metrics import mean_absolute_error  
  5. from sklearn.preprocessing import MinMaxScaler  
  6. from tensorflow.keras import Sequential  
  7. from tensorflow.keras.layers import Dense  
  8. # load the dataset  
  9. path = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'  
  10. df = read_csv(path, header=None 
  11. # split into input and output columns  
  12. X, y = df.values[:, :-1], df.values[:, -1]  
  13. # ensure target is a 2d array  
  14. yy = y.reshape((len(y),1))  
  15. # prepare input data  
  16. pt1 = MinMaxScaler()  
  17. pt1.fit(X)  
  18. X = pt1.transform(X)  
  19. # prepare target  
  20. pt2 = MinMaxScaler()  
  21. pt2.fit(y)  
  22. y = pt2.transform(y)  
  23. # determine the number of input features  
  24. n_features = X.shape[1]  
  25. # define model  
  26. model = Sequential()  
  27. model.add(Dense(10, activation='relu'kernel_initializer='he_normal'input_shape=(n_features,)))  
  28. model.add(Dense(8, activation='relu'kernel_initializer='he_normal'))  
  29. model.add(Dense(1))  
  30. # compile the model  
  31. model.compile(optimizer='adam'loss='mse' 
  32. # fit the model  
  33. model.fit(X, y, epochs=200batch_size=8verbose=0 
  34. # define a row of new data  
  35. row = [13]  
  36. # transform the input data  
  37. X_new = pt1.transform([row])  
  38. # make prediction  
  39. yhat = model.predict(X_new)  
  40. # invert transform on prediction  
  41. yhat = pt2.inverse_transform(yhat) 
  42. # report prediction  
  43. print('f(%s) = %.3f' % (row, yhat[0])) 

运行示例可以使模型适合整个数据集,并为单行新数据做出预测。

注意:由于算法或评估程序的随机性,或者数值精度的差异,您的结果可能会有所不同。考虑运行该示例几次并比较平均结果。

在这种情况下,我们可以看到输入13导致输出62(千瑞典克朗)。 

  1. f([13]) = 62.595  

 

责任编辑:庞桂玉 来源: Python中文社区(ID:python-china)
相关推荐

2020-06-04 16:56:55

物联网保险技术

2013-08-08 10:08:48

华为UPS华为

2021-11-12 15:41:42

LSTM神经网络人工智能

2021-03-29 09:02:24

深度学习预测间隔

2020-09-08 13:02:00

Python神经网络感知器

2021-09-24 09:45:27

Python神经网络人工智能

2019-05-07 19:12:28

机器学习神经网络Python

2018-07-03 16:10:04

神经网络生物神经网络人工神经网络

2019-02-27 15:15:41

汽车保险自动驾驶数据分析

2017-06-19 15:12:30

Uber神经网络事件预测

2022-06-30 20:47:58

区块链

2020-05-27 11:10:54

KerasLSTM神经网络

2020-12-19 11:05:57

循环神经网络PyTorch神经网络

2018-05-28 13:12:49

深度学习Python神经网络

2018-10-18 10:27:15

机器学习神经网络python

2017-09-10 07:07:32

神经网络数据集可视化

2017-05-04 18:30:34

大数据卷积神经网络

2022-04-07 09:01:52

神经网络人工智能

2024-11-05 16:19:55

2022-02-15 23:38:22

Python机器学习算法
点赞
收藏

51CTO技术栈公众号