太天才了,把感知机组装在一起是不是就是神经网络了?

人工智能 深度学习
我们来试着写一下神经网络的代码,由于现在我们还没有介绍神经网络的训练方法,所以我们只能实现它预测的部分。等我们介绍完了反向传播算法之后,再来补上模型训练的过程。

[[354709]]

大家好,今天来继续聊聊深度学习。

有同学跟我说很久没有更新深度学习的模型了,倒不是不愿意更新,主要是一次想把一个技术专题写完。但是纯技术文章观众老爷们不太爱看,所以我一般都把纯技术文章放在次条。不过既然有同学催更,那么我还是响应一下需求,来更新一篇。

神经网络与感知机的不同

我们当时在文章里放了一张图,这张图是一个多层感知机的图,大家看一下,就是下面这张图。

 

这张图乍一看没什么问题,但是细想会觉得有点奇怪,好像我们印象里看到的神经网络的图片也是这样的,既然如此,那么它们之间有什么区别呢?

表面上最明显的区别就是名字不同,这是一张神经网络的图片。我们发现同样是三层,但是它每一层的名字分别是输入层、中间层(隐藏层)和输出层。我们一般把输入层和输出层单独命名,中间的若干层都叫做隐藏层或者是中间层。当然像是感知机一样,以数字来命名层数也是可以的,比如下图当中的输入层叫做第0层,中间层叫做第一层,最后输出层叫做第2层。

我们一般不把输出层看作是有效的神经网络,所以下图的网络被称为二层神经网络,而不是三层神经网络。

 

除了名字的叫法不同之外,还有一个最关键的区别就是激活函数,为了说明白这点,我们先来看看神经网络当中的信号传递。

信号传递

下图是一张我随便找来的神经网络图,我们可以看到输入的第一个节点被置为了1。这样做是为了方便引入偏移量,只是我们一般情况下画图的时候,不会特意把偏移量画出来。我们以下图为例子来看下神经网络当中信号的传递方式。

 

 

到这里还没有结束,神经网络当中每一层都会有对应的激活函数。一般情况下同一层网络当中的激活函数相同,我们把它叫做h,所以最终这个节点的输出并不是刚刚得到的,而是。


 

 

激活函数我们已经比较熟悉了,之前介绍过很多次,常用的大概有以下几种:Relu、Sigmoid、tanh、softmax,以及一些衍生出的变种。一般情况下,在输出层之前我们通常使用Relu,如果模型是一个分类模型,我们会在最后使用Sigmoid或者是softmax,如果是回归模型则不使用任何激活函数。

Sigmoid我们已经很熟悉了,如果我们把LR模型也看成是一个单层的神经网络的话,那么Sigmoid就是它的激活函数。Sigmoid应用在二分类场景当中单个的输出节点上,输出的值如果大于0.5表示为真,否则为假。在一些概率预估场景当中,也可以认为输出值就代表了事件发生的概率。

与之对应的是softmax函数,它应用在多分类问题当中,它应用的节点数量不是1个,而是k个。这里的k表示多分类场景当中的类别数量。我们以k=3举例,看下图:

 

在图中一共有三个节点,对于每一个节点来说,它的公式可以写成:

其实和Sigmoid的计算方式是一样的,只不过最后计算了一个权重。最后我们会在这k个节点当中选择最大的作为最终的分类结果。

代码实现

最后,我们来试着写一下神经网络的代码,由于现在我们还没有介绍神经网络的训练方法,所以我们只能实现它预测的部分。等我们介绍完了反向传播算法之后,再来补上模型训练的过程。

如果不考虑反向传播的话,其实整个算法的代码非常简单,只要熟悉Python语法的同学都能看懂。

  1. import numpy as np 
  2.  
  3. def relu(x): 
  4.     return np.where(x > 0, x, 0) 
  5.  
  6.  
  7. def sigmoid(x): 
  8.     return 1 / (1 + np.exp(-x)) 
  9.  
  10.  
  11. class NeuralNetwork(): 
  12.     def __init__(self): 
  13.         self.params = {} 
  14.         self.params['W1'] = np.random.rand(2, 3) 
  15.         self.params['b1'] = np.random.rand(1, 3) 
  16.         self.params['W2'] = np.random.rand(3, 2) 
  17.         self.params['b2'] = np.random.rand(1, 2) 
  18.         self.params['W3'] = np.random.rand(2, 1) 
  19.         self.params['b3'] = np.random.rand(1, 1) 
  20.         
  21.     def forward(self, x): 
  22.         a1 = np.dot(x, self.params['W1']) + self.params['b1'
  23.         z1 = relu(a1) 
  24.          
  25.         a2 = np.dot(z1, self.params['W2']) + self.params['b2'
  26.         z2 = relu(a2) 
  27.          
  28.         a3 = np.dot(z2, self.params['W3']) + self.params['b3'
  29.         return np.where(sigmoid(a3) > 0.5, 1, 0) 
  30.      
  31.      
  32. if __name__ == "__main__"
  33.     nn = NeuralNetwork() 
  34.     print(nn.forward(np.array([3, 2]))) 

本文转载自微信公众号「TechFlow」,可以通过以下二维码关注。转载本文请联系TechFlow公众号。

 

责任编辑:武晓燕 来源: TechFlow
相关推荐

2016-09-02 16:49:54

APPVR

2017-11-15 08:26:52

IntelAMD技术

2018-07-30 16:04:09

ReactJS代码HTML

2021-06-22 09:46:52

神经网络人工智能深度学习

2018-02-01 21:18:40

戴尔

2009-07-22 09:29:44

ScalaSpiral程序

2020-09-16 11:20:40

PythonBashLinux

2016-08-12 09:49:06

Intel

2013-08-06 09:49:01

2009-11-06 08:57:31

WCF开发

2014-12-31 10:33:44

Google 2015

2022-09-27 16:03:51

羊了个羊鸿蒙

2015-03-05 10:27:56

苹果IBM

2019-03-27 10:13:59

运维开发DevOps

2020-09-26 10:43:57

Python语言数据分析

2011-01-20 11:42:49

同事

2015-10-20 16:48:06

AnsibleDocker可扩展设计

2015-04-22 17:22:05

eBay京东

2015-02-09 19:49:19

畅捷通

2020-12-10 08:05:23

神经网络ELM极限学习机
点赞
收藏

51CTO技术栈公众号