TensorFlow学习之神经网络的构建

开发 后端 深度学习
本文带你通过TensorFlow学习神经网络的构建,包括建立一个神经网络添加层、训练一个二次函数等,并且有完整代码。

1.建立一个神经网络添加层

输入值、输入的大小、输出的大小和激励函数

学过神经网络的人看下面这个图就明白了,不懂的去看看我的另一篇博客(http://www.cnblogs.com/wjy-lulu/p/6547542.html) 

 

def add_layer(inputs , in_size , out_size , activate = None): 
    Weights = tf.Variable(tf.random_normal([in_size,out_size]))#随机初始化 
    baises  = tf.Variable(tf.zeros([1,out_size])+0.1)#可以随机但是不要初始化为0,都为固定值比随机好点 
    y = tf.matmul(inputs, Weights) + baises #matmul:矩阵乘法,multipy:一般是数量的乘法 
    if activate: 
        y = activate(y) 
    return y  
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.

2.训练一个二次函数 

import tensorflow as tf 
import numpy as np 
 
def add_layer(inputs , in_size , out_size , activate = None): 
    Weights = tf.Variable(tf.random_normal([in_size,out_size]))#随机初始化 
    baises  = tf.Variable(tf.zeros([1,out_size])+0.1)#可以随机但是不要初始化为0,都为固定值比随机好点 
    y = tf.matmul(inputs, Weights) + baises #matmul:矩阵乘法,multipy:一般是数量的乘法 
    if activate: 
        y = activate(y) 
    return y 
if __name__ == '__main__'
    x_data = np.linspace(-1,1,300,dtype=np.float32)[:,np.newaxis]#创建-1,1的300个数,此时为一维矩阵,后面转化为二维矩阵===[1,2,3]-->>[[1,2,3]] 
    noise = np.random.normal(0,0.05,x_data.shape).astype(np.float32)#噪声是(1,300)格式,0-0.05大小 
    y_data = np.square(x_data) - 0.5 + noise #带有噪声的抛物线 
 
    xs = tf.placeholder(tf.float32,[None,1]) #外界输入数据 
    ys = tf.placeholder(tf.float32,[None,1]) 
 
    l1 = add_layer(xs,1,10,activate=tf.nn.relu) 
    prediction = add_layer(l1,10,1,activate=None) 
 
    loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),reduction_indices=[1]))#误差 
    train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)#对误差进行梯度优化,步伐为0.1 
 
    sess = tf.Session() 
    sess.run( tf.global_variables_initializer()) 
    for i in range(1000): 
        sess.run(train_step, feed_dict={xs: x_data, ys: y_data})#训练 
        if i%50 == 0: 
            print(sess.run(loss, feed_dict={xs: x_data, ys: y_data}))#查看误差  
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.
  • 28.
  • 29.
  • 30.

3.动态显示训练过程

显示的步骤程序之中部分进行说明,其它说明请看其它博客(http://www.cnblogs.com/wjy-lulu/p/7735987.html) 

import tensorflow as tf 
import numpy as np 
import matplotlib.pyplot as plt 
 
def add_layer(inputs , in_size , out_size , activate = None): 
    Weights = tf.Variable(tf.random_normal([in_size,out_size]))#随机初始化 
    baises  = tf.Variable(tf.zeros([1,out_size])+0.1)#可以随机但是不要初始化为0,都为固定值比随机好点 
    y = tf.matmul(inputs, Weights) + baises #matmul:矩阵乘法,multipy:一般是数量的乘法 
    if activate: 
        y = activate(y) 
    return y 
if __name__ == '__main__'
    x_data = np.linspace(-1,1,300,dtype=np.float32)[:,np.newaxis]#创建-1,1的300个数,此时为一维矩阵,后面转化为二维矩阵===[1,2,3]-->>[[1,2,3]] 
    noise = np.random.normal(0,0.05,x_data.shape).astype(np.float32)#噪声是(1,300)格式,0-0.05大小 
    y_data = np.square(x_data) - 0.5 + noise #带有噪声的抛物线 
    fig = plt.figure('show_data')# figure("data")指定图表名称 
    ax = fig.add_subplot(111) 
    ax.scatter(x_data,y_data) 
    plt.ion() 
    plt.show() 
    xs = tf.placeholder(tf.float32,[None,1]) #外界输入数据 
    ys = tf.placeholder(tf.float32,[None,1]) 
 
    l1 = add_layer(xs,1,10,activate=tf.nn.relu) 
    prediction = add_layer(l1,10,1,activate=None) 
 
    loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),reduction_indices=[1]))#误差 
    train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)#对误差进行梯度优化,步伐为0.1 
 
    sess = tf.Session() 
    sess.run( tf.global_variables_initializer()) 
    for i in range(1000): 
        sess.run(train_step, feed_dict={xs: x_data, ys: y_data})#训练 
        if i%50 == 0: 
            try: 
                ax.lines.remove(lines[0]) 
            except Exception: 
                pass 
            prediction_value = sess.run(prediction, feed_dict={xs: x_data}) 
            lines = ax.plot(x_data,prediction_value,"r",lw = 3) 
            print(sess.run(loss, feed_dict={xs: x_data, ys: y_data}))#查看误差 
            plt.pause(2) 
    while True
        plt.pause(0.01)   
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.
  • 28.
  • 29.
  • 30.
  • 31.
  • 32.
  • 33.
  • 34.
  • 35.
  • 36.
  • 37.
  • 38.
  • 39.
  • 40.
  • 41.
  • 42.
  • 43.
  • 44.

4.TensorBoard整体结构化显示

 

A.利用with tf.name_scope("name")创建大结构、利用函数的name="name"去创建小结构:tf.placeholder(tf.float32,[None,1],name="x_data")

B.利用writer = tf.summary.FileWriter("G:/test/",graph=sess.graph)创建一个graph文件

C.利用TessorBoard去执行这个文件

这里得注意--->>>首先到你存放文件的上一个目录--->>然后再去运行这个文件

tensorboard  --logdir=test

(被屏蔽的GIF动图,具体安装操作欢迎戳“原文链接”哈!)

 

5.TensorBoard局部结构化显示  

A. tf.summary.histogram(layer_name+"Weight",Weights):直方图显示

  • 1.

     

B.  tf.summary.scalar("Loss",loss):折线图显示,loss的走向决定你的网络训练的好坏,至关重要一点

C.初始化与运行设定的图表 

merge = tf.summary.merge_all()#合并图表2 writer = tf.summary.FileWriter("G:/test/",graph=sess.graph)#写进文件3 result = sess.run(merge,feed_dict={xs:x_data,ys:y_data})#运行打包的图表merge4 writer.add_summary(result,i)#写入文件,并且单步长50  
  • 1.

 完整代码及显示效果: 

import tensorflow as tf 
import numpy as np 
import matplotlib.pyplot as plt 
 
def add_layer(inputs , in_size , out_size , n_layer = 1 , activate = None): 
    layer_name = "layer" + str(n_layer) 
    with tf.name_scope(layer_name): 
        with tf.name_scope("Weights"): 
            Weights = tf.Variable(tf.random_normal([in_size,out_size]),name="W")#随机初始化 
            tf.summary.histogram(layer_name+"Weight",Weights) 
        with tf.name_scope("Baises"): 
            baises  = tf.Variable(tf.zeros([1,out_size])+0.1,name="B")#可以随机但是不要初始化为0,都为固定值比随机好点 
            tf.summary.histogram(layer_name+"Baises",baises) 
        y = tf.matmul(inputs, Weights) + baises #matmul:矩阵乘法,multipy:一般是数量的乘法 
        if activate: 
            y = activate(y) 
        tf.summary.histogram(layer_name+"y_sum",y) 
        return y 
if __name__ == '__main__'
    x_data = np.linspace(-1,1,300,dtype=np.float32)[:,np.newaxis]#创建-1,1的300个数,此时为一维矩阵,后面转化为二维矩阵===[1,2,3]-->>[[1,2,3]] 
    noise = np.random.normal(0,0.05,x_data.shape).astype(np.float32)#噪声是(1,300)格式,0-0.05大小 
    y_data = np.square(x_data) - 0.5 + noise #带有噪声的抛物线 
    fig = plt.figure('show_data')# figure("data")指定图表名称 
    ax = fig.add_subplot(111) 
    ax.scatter(x_data,y_data) 
    plt.ion() 
    plt.show() 
    with tf.name_scope("inputs"): 
        xs = tf.placeholder(tf.float32,[None,1],name="x_data") #外界输入数据 
        ys = tf.placeholder(tf.float32,[None,1],name="y_data"
    l1 = add_layer(xs,1,10,n_layer=1,activate=tf.nn.relu) 
    prediction = add_layer(l1,10,1,n_layer=2,activate=None) 
    with tf.name_scope("loss"): 
        loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),reduction_indices=[1]))#误差 
        tf.summary.scalar("Loss",loss) 
    with tf.name_scope("train_step"): 
        train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)#对误差进行梯度优化,步伐为0.1 
 
    sess = tf.Session() 
    merge = tf.summary.merge_all()#合并 
    writer = tf.summary.FileWriter("G:/test/",graph=sess.graph) 
    sess.run( tf.global_variables_initializer()) 
    for i in range(1000): 
        sess.run(train_step, feed_dict={xs: x_data, ys: y_data})#训练 
        if i%100 == 0: 
            result = sess.run(merge,feed_dict={xs:x_data,ys:y_data})#运行打包的图表merge 
            writer.add_summary(result,i)#写入文件,并且单步长50 
 
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.
  • 28.
  • 29.
  • 30.
  • 31.
  • 32.
  • 33.
  • 34.
  • 35.
  • 36.
  • 37.
  • 38.
  • 39.
  • 40.
  • 41.
  • 42.
  • 43.
  • 44.
  • 45.
  • 46.
  • 47.
  • 48.

主要参考莫凡大大:https://morvanzhou.github.io/

可视化出现问题了,参考这位大神:http://blog.csdn.net/fengying2016/article/details/54289931 

责任编辑:庞桂玉 来源: 人工智能爱好者社区
相关推荐

2018-10-18 10:27:15

机器学习神经网络python

2018-08-27 17:05:48

tensorflow神经网络图像处理

2017-03-27 16:18:30

神经网络TensorFlow人工智能

2017-08-29 13:50:03

TensorFlow深度学习神经网络

2017-08-04 14:23:04

机器学习神经网络TensorFlow

2020-08-06 10:11:13

神经网络机器学习算法

2017-08-28 21:31:37

TensorFlow深度学习神经网络

2023-05-12 14:58:50

Java神经网络深度学习

2023-04-19 10:17:35

机器学习深度学习

2021-03-29 09:02:24

深度学习预测间隔

2018-07-03 16:10:04

神经网络生物神经网络人工神经网络

2024-11-05 16:19:55

2018-05-28 13:12:49

深度学习Python神经网络

2016-12-27 14:24:57

课程笔记神经网络

2022-07-28 09:00:00

深度学习网络类型架构

2017-09-11 10:00:59

Caffe2TensorFlow神经网络

2020-05-11 13:44:38

神经网络人工智能深度学习

2017-08-25 14:23:44

TensorFlow神经网络文本分类

2025-02-25 14:13:31

2018-04-08 11:20:43

深度学习
点赞
收藏

51CTO技术栈公众号