为什么说神经网络可以逼近任意函数?

人工智能 深度学习
本文主要介绍神经网络万能逼近理论,并且通过PyTorch展示了两个案例来说明神经网络的函数逼近功能。

本文主要介绍神经网络万能逼近理论,并且通过PyTorch展示了两个案例来说明神经网络的函数逼近功能。

大多数人理解"函数"为高等代数中形如"f(x)=2x"的表达式,但是实际上,函数只是输入到输出的映射关系,其形式是多样的。

 

[[334670]]

拿个人衣服尺寸预测来说,我们用机器学习来实现这个功能,就是将个人身高、体重、年龄作为输入,将衣服尺寸作为输出,实现输入-输出映射。

具体来说,需要以下几个步骤:

  • 收集关键数据(大量人口的身高/体重/年龄,已经对应的实际服装尺寸)。
  • 训练模型来实现输入-输出的映射逼近。
  • 对未知数据进行预测来验证模型。

如果输出是输入特征的线性映射,那么模型的训练往往相对简单,只需要一个线性回归就可以实现;size = a*height + b*weight + c*age + d。

但是,通常假设输出是输入特征的线性映射是不够合理和不完全准确的。现实情况往往很复杂,存在一定的特例和例外。常见的问题(字体识别、图像分类等)显然涉及到复杂的模式,需要从高维输入特征中学习映射关系。

但是根据万能逼近理论,带有单隐藏的人工神经网络就能够逼近任意函数,因此可以被用于解决复杂问题。

人工神经网络

本文将只研究具有输入层、单个隐藏层和输出层的完全连接的神经网络。在服装尺寸预测器的例子中,输入层将有三个神经元(身高、体重和年龄),而输出层只有一个(预测尺寸)。在这两者之间,有一个隐藏层,上面有一些神经元(下图中有5个,但实际上可能更大一些,比如1024个)。

 

为什么说神经网络可以逼近任意函数?

网络中的每个连接都有一些可调整的权重。训练意味着找到好的权重,使给定输入集的预测大小与实际大小之间存在微小差异。

每个神经元与下一层的每个神经元相连。这些连接都有一定的权重。每个神经元的值沿着每个连接传递,在那里它乘以权重。然后所有的神经元都会向前反馈到输出层,然后输出一个结果。训练模型需要为所有连接找到合适的权重。万能逼近定理的核心主张是,在有足够多的隐藏神经元的情况下,存在着一组可以近似任何函数的连接权值,即使该函数不是像f(x)=x²那样可以简洁地写下来的函数。即使是一个疯狂的,复杂的函数,比如把一个100x100像素的图像作为输入,输出"狗"或"猫"的函数也被这个定理所覆盖。

非线性关系

神经网络之所以能够逼近任意函数,关键在于将非线性关系函数整合到了网络中。每层都可以设置激活函数实现非线性映射,换言之,人工神经网络不只是进行线性映射计算。常见的非线性激活函数有 ReLU, Tanh, Sigmoid等。

 

为什么说神经网络可以逼近任意函数?

ReLU是一个简单的分段线性函数-计算消耗小。另外两个都涉及到指数运算,因此计算成本更高

为了展示人工神经网络的万能逼近的能力,接下来通过PyTorch实现两个案例。

案例一:任意散点曲线拟合

神经网络可能面临的最基本的情况之一就是学习两个变量之间的映射关系。例如,假设x值表示时间,y坐标表示某条街道上的交通量。在一天中的不同时间点都会出现高峰和低谷,因此这不是一种线性关系。

下面的代码首先生成符合正态分布的随机点,然后训练一个网络,该网络将x坐标作为输入,y坐标作为输出。有关每个步骤的详细信息,请参见代码注释:

  1. import torch 
  2. import plotly.graph_objects as go 
  3. import numpy as np 
  4.  
  5. # Batch Size, Input Neurons, Hidden Neurons, Output Neurons 
  6. N, D_in, H, D_out = 16, 1, 1024, 1 
  7.  
  8. Create random Tensors to hold inputs and outputs 
  9. x = torch.randn(N, D_in) 
  10. y = torch.randn(N, D_out) 
  11.  
  12. # Use the nn package to define our model 
  13. # Linear (Input -> Hidden), ReLU (Non-linearity), Linear (Hidden-> Output
  14. model = torch.nn.Sequential( 
  15.     torch.nn.Linear(D_in, H), 
  16.     torch.nn.ReLU(), 
  17.     torch.nn.Linear(H, D_out), 
  18.  
  19. # Define the loss function: Mean Squared Error 
  20. # The sum of the squares of the differences between prediction and ground truth 
  21. loss_fn = torch.nn.MSELoss(reduction='sum'
  22.  
  23. # The optimizer does a lot of the work of actually calculating gradients and 
  24. # applying backpropagation through the network to update weights 
  25. learning_rate = 1e-4 
  26. optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate) 
  27.  
  28. # Perform 30000 training steps 
  29. for t in range(30000): 
  30.     # Forward pass: compute predicted y by passing x to the model. 
  31.     y_pred = model(x) 
  32.  
  33.     # Compute loss and print it periodically 
  34.     loss = loss_fn(y_pred, y) 
  35.     if t % 100 == 0: 
  36.         print(t, loss.item()) 
  37.  
  38.     # Update the network weights using gradient of the loss 
  39.     optimizer.zero_grad() 
  40.     loss.backward() 
  41.     optimizer.step() 
  42.  
  43. # Draw the original random points as a scatter plot 
  44. fig = go.Figure() 
  45. fig.add_trace(go.Scatter(x=x.flatten().numpy(), y=y.flatten().numpy(), mode="markers")) 
  46.  
  47. # Generate predictions for evenly spaced x-values between minx and maxx 
  48. minx = min(list(x.numpy())) 
  49. maxx = max(list(x.numpy())) 
  50. c = torch.from_numpy(np.linspace(minx, maxx, num=640)).reshape(-1, 1).float() 
  51. d = model(c) 
  52.  
  53. # Draw the predicted functions as a line graph 
  54. fig.add_trace(go.Scatter(x=c.flatten().numpy(), y=d.flatten().detach().numpy(), mode="lines")) 
  55. fig.show() 

 

为什么说神经网络可以逼近任意函数?

请注意右边的两点,即模型没有完全拟合。我们可以通过运行更多的训练步骤或增加隐藏神经元的数量来解决这个问题。

案例二:二值分类

函数不一定是在代数中看到的那种"一个数进去,另一个数出来"的函数。现在让我们尝试一个二进制分类任务。数据点有两个特征,可以分为两个标签中的一个。也许这两个特征是经纬度坐标,而标签是环境污染物的存在。或者,这些特征可能是学生的数学和阅读测试成绩,并且标签对应于他们是右撇子还是左撇子。重要的是模型必须实现两个输入到一个输出(0或1)的映射。

下面的代码与前面的代码非常相似。唯一的差异是输入层现在有两个神经元,输出层之后是一个Sigmoid激活,它将所有输出压缩到范围(0,1)。

  1. import torch 
  2. import plotly.express as px 
  3. import pandas as pd 
  4.  
  5. # Batch Size, Input Neurons, Hidden Neurons, Output Neurons 
  6. N, D_in, H, D_out = 128, 2, 1024, 1 
  7.  
  8. Create random Tensors to hold inputs and outputs 
  9. x = torch.rand(N, D_in) 
  10. y = torch.randint(0, 2, (N, D_out)) 
  11.  
  12. # Plot randomly generated points and color by label 
  13. df = pd.DataFrame({"x": x[:, 0].flatten(), "y": x[:, 1].flatten(), "class": y.flatten()}) 
  14. fig = px.scatter(df, x="x", y="y", color="class", color_continuous_scale="tealrose"
  15. fig.show() 
  16.  
  17. # define model: Linear (Input->Hidden), ReLU, Linear (Hidden->Output), Sigmoid 
  18. model = torch.nn.Sequential( 
  19.     torch.nn.Linear(D_in, H), 
  20.     torch.nn.ReLU(), 
  21.     torch.nn.Linear(H, D_out), 
  22.     torch.nn.Sigmoid() 
  23.  
  24. # define loss functionBinary Cross Entropy Loss (good for binary classification tasks) 
  25. loss_fn = torch.nn.BCELoss() 
  26.  
  27. learning_rate = 0.002 
  28. optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate) 
  29.  
  30. # Store losses over time 
  31. ts, losses = ([], []) 
  32.  
  33. # run training steps 
  34. for t in range(60000): 
  35.     y_pred = model(x) 
  36.  
  37.     loss = loss_fn(y_pred.float(), y.float()) 
  38.     if t % 100 == 0: 
  39.         ts.append(t) 
  40.         losses.append(loss.data.numpy()) 
  41.  
  42.     optimizer.zero_grad() 
  43.     loss.backward() 
  44.     optimizer.step() 
  45.  
  46. # generate a bunch of random points to cover the sample spacethen call model 
  47. c = torch.rand(32000, D_in) 
  48. d = model(c) 
  49.  
  50. # store random data and predicted classifications in a DataFrame and plot with Plotly Express 
  51. df2 = pd.DataFrame({"x": c[:, 0].flatten(), 
  52.                     "y": c[:, 1].flatten(), 
  53.                     "class": d.flatten().detach().numpy()}) 
  54. fig2 = px.scatter(df2, x="x", y="y", color="class", color_continuous_scale="tealrose"
  55. fig2.show() 
  56.  
  57. # plot the loss as a function of training step 
  58. fig3 = px.scatter(x=ts, y=losses) 
  59. fig3.show() 

 

为什么说神经网络可以逼近任意函数?

在单位正方形中随机均匀生成的点,随机指定给标签0(青色)和标签1(粉红色)。

首先,在单位正方形内随机均匀生成数据点,并且随机指点每个数据点的标签为0/1。从图中可以看出,显然不存在线性关系。本案例的目的在于训练模型使其通过坐标判断标签。

 

为什么说神经网络可以逼近任意函数?
模型分类结果

过拟合

以上两个案例似乎都给出了很可观的结果,但是这是不是我们真正想要的呢?值得注意的是,这两个案例都存在过拟合的现象。过拟合表现为模型在训练数据集表现优秀,但是在未知数据集表现不足。

在案例一中,假设其中一个点是由于错误的数据收集而导致的异常值。考虑到要学习的训练数据量如此之少,模型对这些数据的拟合度过高,只看到了一个信号,而实际上只是噪声。一方面,令人印象深刻的是,模型能够学习一个考虑到这个异常值的函数。另一方面,当将此模型应用于真实世界的数据时,这可能会导致不良结果,在该点附近产生错误的预测。

在案例二中,模型学习了一个漂亮的分类预测。但是,请注意最靠近右下角的蓝绿色点。尽管这是唯一的一点,它导致模型将整个右下角标记为青色。仅仅是一些错误的数据点就可能严重扭曲模型。当我们尝试将模型应用于测试数据时,它的工作效果可能比预期的差得多。

为了避免过度拟合,重要的是要有大量的训练数据来代表模型预期面对的样本。如果你正在建立一个工具来预测普通人群的衣服尺寸,不要只从你大学朋友那里收集训练数据。此外,还有一些先进的技术可以别用于帮助减少过拟合的发生(例如:权重下降 weight decay)。

结语

总之,神经网络是强大的机器学习工具,因为它们(理论上)能够学习任何函数。然而,这并不能保证你很容易找到一个给定问题的最优权重!实际上,在合理的时间内训练一个精确的模型取决于许多因素,例如优化器、模型体系结构、数据质量等等。特别是,深度学习涉及具有多个隐藏层的神经网络,它们非常擅长学习某些困难的任务。

 

责任编辑:未丽燕 来源: 今日头条
相关推荐

2020-05-29 17:21:33

神经网络学习函数

2020-09-16 10:02:08

神经网络模型

2023-06-18 23:00:39

神经网络损失函数随机变量

2021-01-10 08:46:43

神经网络激活函数人工神经网络

2022-09-26 00:00:00

神经网络激活函数sigmoid

2018-07-03 16:10:04

神经网络生物神经网络人工神经网络

2020-08-03 07:54:33

神经网络通用近似定理机器学习

2021-12-20 09:00:00

深度学习神经元网络安全

2021-10-26 09:00:00

图形机器学习深度学习

2019-10-08 15:39:54

人工智能损失函数网络

2018-05-14 10:50:13

SQL查询语句神经网络

2023-05-05 16:26:33

2019-07-02 13:37:23

神经网络运算Python

2023-04-18 15:15:06

神经网络激活函数开发

2021-03-30 11:29:02

人工智能深度学习

2020-09-22 07:46:03

人工神经网络人工智能AI

2017-09-10 07:07:32

神经网络数据集可视化

2017-03-22 11:59:40

深度神经网络

2024-11-07 08:26:31

神经网络激活函数信号

2024-07-24 08:04:24

神经网络激活函数
点赞
收藏

51CTO技术栈公众号