你好,游客 登录
背景:
阅读新闻

三天速成!香港科技大学TensorFlow课件分享

[日期:2017-10-09] 来源:机器之心  作者: [字体: ]

这是一套香港科技大学发布的极简 TensorFlow 入门教程,三天全套幻灯片教程已被分享到 Google Drive。机器之心将简要介绍该教程并借此梳理 TensorFlow 的入门概念与实现。

该教程第一天先介绍了深度学习和机器学习的潜力与基本概念,而后便开始探讨深度学习框架 TensorFlow。首先我们将学到如何安装 TensorFlow,其实我们感觉 TensorFlow 环境配置还是相当便捷的,基本上按照官网的教程就能完成安装。随后就从「Hello TensorFlow」开始依次讲解计算图、占位符、张量等基本概念。

当然我们真正地理解 TensorFlow 还需要从实战出发一点点学习那些最基本的概念,因此第一天重点讲解了线性回归、Logistic 回归、Softmax 分类和神经网络。每一个模型都从最基本的概念出发先推导运行过程,然后再结合 TensorFlow 讲解张量、计算图等真正的意义。神经网络这一部分讲解得十分详细,我们将从最基本的感知机原理开始进而使用多层感知机解决异或问题(XOR),重点是该课程详细推导了前向传播与反向传播的数学过程并配以 TensorFlow 实现。

教程第二天详细地讨论了卷积神经网络,它从 TensorFlow 的训练与构建技巧开始,解释了应用于神经网络的各种权重初始化方法、激活函数、损失函数、正则化和各种优化方法等。在教程随后论述 CNN 原理的部分,我们可以看到大多是根据斯坦福 CS231n 课程来解释的。第二天最后一部分就是使用 TensorFlow 实现前面的理论,该教程使用单独的代码块解释了 CNN 各个部分的概念,比如说 2 维卷积层和最大池化层等。

教程第三天详解了循环神经网络,其从时序数据开始先讲解了 RNN 的基本概念与原理,包括编码器-解码器模式、注意力机制和门控循环单元等非常先进与高效的机制。该教程后一部分使用了大量的实现代码来解释前面我们所了解的循环神经网络基本概念,包括 TensorFlow 中单个循环单元的构建、批量输入与循环层的构建、RNN 序列损失函数的构建、训练计算图等。

下面机器之心将根据该教程资料简要介绍 TensorFlow 基本概念和 TensorFlow 机器学习入门实现。更详细的内容请查看香港科技大学三日 TensorFlow 速成课程资料

  • 三日速成课程 Google Drive 资料地址:https://drive.google.com/drive/folders/0B41Zbb4c8HVyY1F5Ml94Z2hodkE

  • 三日速成课程百度云盘资料地址:http://pan.baidu.com/s/1boGGzeR

TensorFlow 基础

本小节将从张量与图、常数与变量还有占位符等基本概念出发简要介绍 TensorFlow。需要进一步了解 TensorFlow 的读者可以阅读谷歌 TensorFlow 的文档,当然也可以阅读其他中文教程或书籍,例如《TensorFlow:实战 Google 深度学习框架》和《TensorFlow 实战》等。

  • TensorFlow 文档地址:https://www.tensorflow.org/get_started/

1. 图

TensorFlow 是一种采用数据流图(data flow graphs),用于数值计算的开源软件库。其中 Tensor 代表传递的数据为张量(多维数组),Flow 代表使用计算图进行运算。数据流图用「结点」(nodes)和「边」(edges)组成的有向图来描述数学运算。「结点」一般用来表示施加的数学操作,但也可以表示数据输入的起点和输出的终点,或者是读取/写入持久变量(persistent variable)的终点。边表示结点之间的输入/输出关系。这些数据边可以传送维度可动态调整的多维数据数组,即张量(tensor)。

在 Tensorflow 中,所有不同的变量和运算都是储存在计算图。所以在我们构建完模型所需要的图之后,还需要打开一个会话(Session)来运行整个计算图。在会话中,我们可以将所有计算分配到可用的 CPU 和 GPU 资源中。

如上所示我们构建了一个加法运算的计算图,第二个代码块并不会输出计算结果,因为我们只是定义了一张图,而没有运行它。第三个代码块才会输出计算结果,因为我们需要创建一个会话(Session)才能管理 TensorFlow 运行时的所有资源。但计算完毕后需要关闭会话来帮助系统回收资源,不然就会出现资源泄漏的问题。

TensorFlow 中最基本的单位是常量(Constant)、变量(Variable)和占位符(Placeholder)。常量定义后值和维度不可变,变量定义后值可变而维度不可变。在神经网络中,变量一般可作为储存权重和其他信息的矩阵,而常量可作为储存超参数或其他结构信息的变量。在上面的计算图中,结点 1 和结点 2 都是定义的常量 tf.constant()。我们可以分别声明不同的常量(tf.constant())和变量(tf.Variable()),其中 tf.float 和 tf.int 分别声明了不同的浮点型和整数型数据。

2. 占位符和 feed_dict

TensorFlow 同样还支持占位符,占位符并没有初始值,它只会分配必要的内存。在会话中,占位符可以使用 feed_dict 馈送数据。

feed_dict 是一个字典,在字典中需要给出每一个用到的占位符的取值。在训练神经网络时需要每次提供一个批量的训练样本,如果每次迭代选取的数据要通过常量表示,那么 TensorFlow 的计算图会非常大。因为每增加一个常量,TensorFlow 都会在计算图中增加一个结点。所以说拥有几百万次迭代的神经网络会拥有极其庞大的计算图,而占位符却可以解决这一点,它只会拥有占位符这一个结点。

3. 张量

在 TensorFlow 中,张量是计算图执行运算的基本载体,我们需要计算的数据都以张量的形式储存或声明。如下所示,该教程给出了各阶张量的意义。

零阶张量就是我们熟悉的标量数字,它仅仅只表达了量的大小或性质而没有其它的描述。一阶张量即我们熟悉的向量,它不仅表达了线段量的大小,同时还表达了方向。一般来说二维向量可以表示平面中线段的量和方向,三维向量和表示空间中线段的量和方向。二阶张量即矩阵,我们可以看作是填满数字的一个表格,矩阵运算即一个表格和另外一个表格进行运算。当然理论上我们可以产生任意阶的张量,但在实际的机器学习算法运算中,我们使用得最多的还是一阶张量(向量)和二阶张量(矩阵)。

一般来说,张量中每个元素的数据类型有以上几种,即浮点型和整数型,一般在神经网络中比较常用的是 32 位浮点型。

4. TensorFlow 机器

在整个教程中,下面一张示意图将反复出现,这基本上是所有 TensorFlow 机器学习模型所遵循的构建流程,即构建计算图、馈送输入张量、更新权重并返回输出值。

在第一步使用 TensorFlow 构建计算图中,我们需要构建整个模型的架构。例如在神经网络模型中,我们需要从输入层开始构建整个神经网络的架构,包括隐藏层的数量、每一层神经元的数量、层级之间连接的情况与权重、整个网络每个神经元使用的激活函数等内容。此外,我们还需要配置整个训练、验证与测试的过程。例如在神经网络中,定义整个正向传播的过程与参数并设定学习率、正则化率和批量大小等各类训练超参数。第二步需要将训练数据或测试数据等馈送到模型中,TensorFlow 在这一步中一般需要打开一个会话(Session)来执行参数初始化和馈送数据等任务。例如在计算机视觉中,我们需要随机初始化整个模型参数数值,并将图像成批(图像数等于批量大小)地馈送到定义好的卷积神经网络中。第三步即更新权重并获取返回值,这个一般是控制训练过程与获得最终的预测结果。

TensorFlow 模型实战TensorFlow 线性回归

该教程前面介绍了很多线性回归的基本概念,包括直线拟合、损失函数、梯度下降等基础内容。我们一直认为线性回归是理解机器学习最好的入门模型,因为他的原理和概念十分简单,但又基本涉及到了机器学习的各个过程。总的来说,线性回归模型可以用下图概括:

其中「×」为数据点,我们需要找到一条直线以最好地拟合这些数据点。该直线和这些数据点之间的距离即损失函数,所以我们希望找到一条能令损失函数最小的直线。以下是使用 TensorFlow 构建线性回归的简单案例。

1. 构建目标函数(即「直线」)

目标函数即 H(x)=Wx+b,其中 x 为特征向量、W 为特征向量中每个元素对应的权重、b 为偏置项。

  1. #X and Y data

  2. x_train =[1,2,3]

  3. y_train =[1,2,3]

  4.  

  5.  

  6. W =tf.Variable(tf.random_normal([1]),name='weight')

  7. b =tf.Variable(tf.random_normal([1]),name='bias')

  8. #Ourhypothesis XW+b

  9. hypothesis =x_train *W +b

如上所示,我们定义了 y=wx+b 的运算,即我们需要拟合的一条直线。

2. 构建损失函数

下面我们需要构建整个模型的损失函数,即各数据点到该直线的距离,这里我们构建的损失函数为均方误差函数:

该函数表明根据数据点预测的值和该数据点真实值之间的距离,我们可以使用以下代码实现:

  1. #cost/loss function

  2. cost =tf.reduce_mean(tf.square(hypothesis -y_train))

其中 tf.square() 为取某个数的平方,而 tf.reduce_mean() 为取均值。

3. 采用梯度下降更新权重

  1. #Minimize

  2. optimizer =tf.train.GradientDescentOptimizer(learning_rate=0.01)

  3. train =optimizer.minimize(cost)

为了寻找能拟合数据的最好直线,我们需要最小化损失函数,即数据与直线之间的距离,因此我们可以采用梯度下降算法:

4. 运行计算图执行训练

  1. #Launchthe graph in a session.

  2. sess =tf.Session()

  3. #Initializesglobal variables in the graph.

  4. sess.run(tf.global_variables_initializer())

  5.  

  6. #Fitthe line

  7. forstep in range(2001):

  8. sess.run(train)

  9. ifstep %20==0:

  10. print(step,sess.run(cost),sess.run(W),sess.run(b))

上面的代码打开了一个会话并执行变量初始化和馈送数据。

最后,该课程给出了完整的实现代码,刚入门的读者可以尝试实现这一简单的线性回归模型:

  1. importtensorflow as tf

  2. W =tf.Variable(tf.random_normal([1]),name='weight')

  3. b =tf.Variable(tf.random_normal([1]),name='bias')

  4.  

  5. X =tf.placeholder(tf.float32,shape=[None])

  6. Y =tf.placeholder(tf.float32,shape=[None])

  7.  

  8. #Ourhypothesis XW+b

  9. hypothesis =X *W +b

  10. #cost/loss function

  11. cost =tf.reduce_mean(tf.square(hypothesis -Y))

  12. #Minimize

  13. optimizer =tf.train.GradientDescentOptimizer(learning_rate=0.01)

  14. train =optimizer.minimize(cost)

  15.  

  16. #Launchthe graph in a session.

  17. sess =tf.Session()

  18. #Initializesglobal variables in the graph.

  19. sess.run(tf.global_variables_initializer())

  20.  

  21. #Fitthe line

  22. forstep in range(2001):

  23. cost_val,W_val,b_val,_ =sess.run([cost,W,b,train],

  24. feed_dict={X:[1,2,3],Y:[1,2,3]})

  25. ifstep %20==0:

  26. print(step,cost_val,W_val,b_val)

下面让我们概览该课程更多的内容。

Logistic 回归

该课程照例先简介了 Logistic 回归的基本概念,如下展示了目标函数、损失函数和权重更新过程。

后面展示了 Logistic 回归的实现代码:

  1. xy =np.loadtxt('data-03-diabetes.csv',delimiter=',',dtype=np.float32)

  2. x_data =xy[:,0:-1]

  3. y_data =xy[:,[-1]]

  4.  

  5. #placeholders fora tensor that will be always fed.

  6. X =tf.placeholder(tf.float32,shape=[None,8])

  7. Y =tf.placeholder(tf.float32,shape=[None,1])

  8.  

  9. W =tf.Variable(tf.random_normal([8,1]),name='weight')

  10. b =tf.Variable(tf.random_normal([1]),name='bias')

  11.  

  12. #Hypothesisusing sigmoid:tf.div(1.,1.+tf.exp(tf.matmul(X,W)))

  13. hypothesis =tf.sigmoid(tf.matmul(X,W)+b)

  14. #cost/loss function

  15. cost =-tf.reduce_mean(Y *tf.log(hypothesis)+(1-Y)*tf.log(1-hypothesis))

  16. train =tf.train.GradientDescentOptimizer(learning_rate=0.01).minimize(cost)

  17.  

  18. #Accuracycomputation

  19. #Trueifhypothesis>0.5elseFalse

  20. predicted =tf.cast(hypothesis >0.5,dtype=tf.float32)

  21. accuracy =tf.reduce_mean(tf.cast(tf.equal(predicted,Y),dtype=tf.float32))

  22.  

  23. #Launchgraph

  24. withtf.Session()as sess:

  25. sess.run(tf.global_variables_initializer())

  26.  

  27. feed ={X:x_data,Y:y_data}

  28. forstep in range(10001):

  29. sess.run(train,feed_dict=feed)

  30. ifstep %200==0:

  31. print(step,sess.run(cost,feed_dict=feed))

  32.  

  33. #Accuracyreport

  34. h,c,a =sess.run([hypothesis,predicted,accuracy],feed_dict=feed)

  35. print("nHypothesis: ",h,"nCorrect (Y): ",c,"nAccuracy: ",a)

Softmax 分类

下图展示了 Softmax 的基本方法,它可以产生和为 1 的类别概率。

以下代码为 Softmax 分类器处理 MNIST 数据集:

  1. #weights &bias fornn layers

  2. W =tf.Variable(tf.random_normal([784,10]))

  3. b =tf.Variable(tf.random_normal([10]))

  4. hypothesis =tf.matmul(X,W)+b

  5. #define cost/loss &optimizer

  6. cost =tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=hypothesis,labels=Y))

  7. optimizer =tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost)

  8. #initialize

  9. sess =tf.Session()

  10. sess.run(tf.global_variables_initializer())

  11.  

  12. #train my model

  13. forepoch in range(training_epochs):

  14. avg_cost =0

  15. total_batch =int(mnist.train.num_examples /batch_size)

  16.  

  17. fori in range(total_batch):

  18. batch_xs,batch_ys =mnist.train.next_batch(batch_size)

  19. feed_dict ={X:batch_xs,Y:batch_ys}

  20. c,_ =sess.run([cost,optimizer],feed_dict=feed_dict)

  21. avg_cost +=c /total_batch

  22.  

  23. print('Epoch:','%04d'%(epoch +1),'cost =','{:.9f}'.format(avg_cost))

  24.  

  25. print('Learning Finished!')

  26.  

  27. #Testmodel and check accuracy

  28. correct_prediction =tf.equal(tf.argmax(hypothesis,1),tf.argmax(Y,1))

  29. accuracy =tf.reduce_mean(tf.cast(correct_prediction,tf.float32))

  30. print('Accuracy:',sess.run(accuracy,feed_dict={X:mnist.test.images,Y:mnist.test.labels}))

神经网络

下图简要介绍了神经网络的运算过程,这一部分十分详细,对于初学者来说是难得的资料:

下面是该教程采用神经网络解决异或问题的代码,异或问题是十分经典的任务,我们可以从该问题中理解神经网络的强大之处:

  1. x_data =np.array([[0,0],[0,1],[1,0],[1,1]],dtype=np.float32)

  2. y_data =np.array([[0],[1],[1],[0]],dtype=np.float32)

  3. X =tf.placeholder(tf.float32)

  4. Y =tf.placeholder(tf.float32)

  5.  

  6. W1 =tf.Variable(tf.random_normal([2,2]),name='weight1')

  7. b1 =tf.Variable(tf.random_normal([2]),name='bias1')

  8. layer1 =tf.sigmoid(tf.matmul(X,W1)+b1)

  9.  

  10. W2 =tf.Variable(tf.random_normal([2,1]),name='weight2')

  11. b2 =tf.Variable(tf.random_normal([1]),name='bias2')

  12. hypothesis =tf.sigmoid(tf.matmul(layer1,W2)+b2)

  13.  

  14. #cost/loss function

  15. cost =-tf.reduce_mean(Y *tf.log(hypothesis)+(1-Y)*tf.log(1-hypothesis))

  16. train =tf.train.GradientDescentOptimizer(learning_rate=0.1).minimize(cost)

  17. #Accuracycomputation

  18. #Trueifhypothesis>0.5elseFalse

  19. predicted =tf.cast(hypothesis >0.5,dtype=tf.float32)

  20. accuracy =tf.reduce_mean(tf.cast(tf.equal(predicted,Y),dtype=tf.float32))

  21. #Launchgraph

  22. withtf.Session()as sess:

  23. #InitializeTensorFlowvariables

  24. sess.run(tf.global_variables_initializer())

  25. forstep in range(10001):

  26. sess.run(train,feed_dict={X:x_data,Y:y_data})

  27. ifstep %100==0:

  28. print(step,sess.run(cost,feed_dict={X:x_data,Y:y_data}),sess.run([W1,W2]))

  29.  

  30. #Accuracyreport

  31. h,c,a =sess.run([hypothesis,predicted,accuracy],

  32. feed_dict={X:x_data,Y:y_data})

  33. print("nHypothesis: ",h,"nCorrect: ",c,"nAccuracy: ",a)

卷积神经网络

第二天教程就正式进入卷积神经网络,我们只能用下图展示卷积神经网络大概的架构,更多资料请查看原课程课件:

该教程同样提供了很多卷积网络的实现代码,下面我们简要介绍一个简单的卷积神经网络实现过程,该卷积神经网络的架构如下:

下面的代码穿件了第一个卷积层,即上图卷积层 1 和池化层 1:

  1. #input placeholders

  2. X =tf.placeholder(tf.float32,[None,784])

  3. X_img =tf.reshape(X,[-1,28,28,1])#img 28x28x1(black/white)

  4. Y =tf.placeholder(tf.float32,[None,10])

  5.  

  6. #L1 ImgInshape=(?,28,28,1)

  7. W1 =tf.Variable(tf.random_normal([3,3,1,32],stddev=0.01))

  8. #Conv->(?,28,28,32)

  9. #Pool->(?,14,14,32)

  10. L1 =tf.nn.conv2d(X_img,W1,strides=[1,1,1,1],padding='SAME')

  11. L1 =tf.nn.relu(L1)

  12. L1 =tf.nn.max_pool(L1,ksize=[1,2,2,1],

  13. strides=[1,2,2,1],padding='SAME')

  14. '''

  15. Tensor("Conv2D:0",shape=(?,28,28,32),dtype=float32)

  16. Tensor("Relu:0",shape=(?,28,28,32),dtype=float32)

  17. Tensor("MaxPool:0",shape=(?,14,14,32),dtype=float32)

  18. '''

后面的代码构建了第二个卷积层,即上图中的卷积层 2 和池化层 2:

  1. '''

  2. Tensor("Conv2D:0",shape=(?,28,28,32),dtype=float32)

  3. Tensor("Relu:0",shape=(?,28,28,32),dtype=float32)

  4. Tensor("MaxPool:0",shape=(?,14,14,32),dtype=float32)

  5. '''

  6.  

  7. #L2 ImgInshape=(?,14,14,32)

  8. W2 =tf.Variable(tf.random_normal([3,3,32,64],stddev=0.01))

  9. #Conv->(?,14,14,64)

  10. #Pool->(?,7,7,64)

  11. L2 =tf.nn.conv2d(L1,W2,strides=[1,1,1,1],padding='SAME')

  12. L2 =tf.nn.relu(L2)

  13. L2 =tf.nn.max_pool(L2,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME')

  14. L2 =tf.reshape(L2,[-1,7*7*64])

  15. '''

  16. Tensor("Conv2D_1:0",shape=(?,14,14,64),dtype=float32)

  17. Tensor("Relu_1:0",shape=(?,14,14,64),dtype=float32)

  18. Tensor("MaxPool_1:0",shape=(?,7,7,64),dtype=float32)

  19. Tensor("Reshape_1:0",shape=(?,3136),dtype=float32)

最后我们只需要构建一个全连接层就完成了整个 CNN 架构的搭建,即用以下代码构建上图最后紫色的全连接层:

  1. '''

  2. Tensor("Conv2D_1:0",shape=(?,14,14,64),dtype=float32)

  3. Tensor("Relu_1:0",shape=(?,14,14,64),dtype=float32)

  4. Tensor("MaxPool_1:0",shape=(?,7,7,64),dtype=float32)

  5. Tensor("Reshape_1:0",shape=(?,3136),dtype=float32)

  6. '''

  7. L2 =tf.reshape(L2,[-1,7*7*64])

  8.  

  9. #FinalFC 7x7x64inputs ->10outputs

  10. W3 =tf.get_variable("W3",shape=[7*7*64,10],initializer=tf.contrib.layers.xavier_initializer())

  11. b =tf.Variable(tf.random_normal([10]))

  12. hypothesis =tf.matmul(L2,W3)+b

  13.  

  14. #define cost/loss &optimizer

  15. cost =tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=hypothesis,labels=Y))

  16. optimizer =tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost)

最后我们只需要训练该 CNN 就完成了整个模型:

  1. #initialize

  2. sess =tf.Session()

  3. sess.run(tf.global_variables_initializer())

  4.  

  5. #train my model

  6. print('Learning stared. It takes sometime.')

  7. forepoch in range(training_epochs):

  8. avg_cost =0

  9. total_batch =int(mnist.train.num_examples /batch_size)

  10. fori in range(total_batch):

  11. batch_xs,batch_ys =mnist.train.next_batch(batch_size)

  12. feed_dict ={X:batch_xs,Y:batch_ys}

  13. c,_,=sess.run([cost,optimizer],feed_dict=feed_dict)

  14. avg_cost +=c /total_batch

  15. print('Epoch:','%04d'%(epoch +1),'cost =','{:.9f}'.format(avg_cost))

  16.  

  17. print('Learning Finished!')

  18.  

  19. #Testmodel and check accuracy

  20. correct_prediction =tf.equal(tf.argmax(hypothesis,1),tf.argmax(Y,1))

  21. accuracy =tf.reduce_mean(tf.cast(correct_prediction,tf.float32))

  22. print('Accuracy:',sess.run(accuracy,feed_dict={X:mnist.test.images,Y:mnist.test.labels}))

循环神经网络

该教程第三天讲述了循环神经网络,下图展示了循环单元的展开,循环单元是处理时序数据的核心。更详细的资料请查看该课程课件。

以下 TensorFlow 代码定义了简单的循环单元:

  1. #Onecell RNN input_dim (4)->output_dim (2)

  2. hidden_size =2

  3. cell =tf.contrib.rnn.BasicRNNCell(num_units=hidden_size)

  4.  

  5. x_data =np.array([[[1,0,0,0]]],dtype=np.float32)

  6. outputs,_states =tf.nn.dynamic_rnn(cell,x_data,dtype=tf.float32)

  7.  

  8. sess.run(tf.global_variables_initializer())

  9. pp.pprint(outputs.eval())

下面该课程展示了一个简单的卷积神经网络案例,如下所示,该案例训练一个 RNN 以输出「hihello」。

1. 创建 RNN 单元

如下可知 TensorFlow 中一般可以创建 3 种 RNN 单元,即 RNN 单元、LSTM 单元和 GRU 单元

# RNN modelrnn_cell = rnn_cell.BasicRNNCell(rnn_size)rnn_cell = rnn_cell. BasicLSTMCell(rnn_size)rnn_cell = rnn_cell. GRUCell(rnn_size)

2. 执行 RNN

# RNN modelrnn_cell = rnn_cell.BasicRNNCell(rnn_size)outputs, _states = tf.nn.dynamic_rnn( rnn_cell, X, initial_state=initial_state, dtype=tf.float32)

3. 设定 RNN 的参数

hidden_size = 5 # output from the LSTMinput_dim = 5 # one-hot sizebatch_size = 1 # one sentencesequence_length = 6 # |ihello| == 6

4. 创建数据

idx2char = ['h', 'i', 'e', 'l', 'o'] # h=0, i=1, e=2, l=3, o=4x_data = [[0, 1, 0, 2, 3, 3]] # hihellx_one_hot = [[[1, 0, 0, 0, 0], # h 0 [0, 1, 0, 0, 0], # i 1 [1, 0, 0, 0, 0], # h 0 [0, 0, 1, 0, 0], # e 2 [0, 0, 0, 1, 0], # l 3 [0, 0, 0, 1, 0]]] # l 3y_data = [[1, 0, 2, 3, 3, 4]] # ihelloX = tf.placeholder(tf.float32, [None, sequence_length, input_dim]) # X one-hotY = tf.placeholder(tf.int32, [None, sequence_length]) # Y label

5. 将数据馈送到 RNN 中

X = tf.placeholder( tf.float32, [None, sequence_length, hidden_size]) # X one-hotY = tf.placeholder(tf.int32, [None, sequence_length]) # Y labelcell = tf.contrib.rnn.BasicLSTMCell(num_units=hidden_size, state_is_tuple=True)initial_state = cell.zero_state(batch_size, tf.float32)outputs, _states = tf.nn.dynamic_rnn( cell, X, initial_state=initial_state, dtype=tf.float32)

6. 创建序列损失函数

outputs, _states = tf.nn.dynamic_rnn( cell, X, initial_state=initial_state, dtype=tf.float32)weights = tf.ones([batch_size, sequence_length])sequence_loss = tf.contrib.seq2seq.sequence_loss( logits=outputs, targets=Y, weights=weights)loss = tf.reduce_mean(sequence_loss)train = tf.train.AdamOptimizer(learning_rate=0.1).minimize(loss)

7. 训练 RNN

这是最后一步,我们将打开一个 TensorFlow 会话完成模型的训练。

prediction = tf.argmax(outputs, axis=2)with tf.Session() as sess: sess.run(tf.global_variables_initializer()) for i in range(2000): l, _ = sess.run([loss, train], feed_dict={X: x_one_hot, Y: y_data}) result = sess.run(prediction, feed_dict={X: x_one_hot}) print(i, "loss:", l, "prediction: ", result, "true Y: ", y_data) # print char using dic result_str = [idx2char[c] for c in np.squeeze(result)] print("tPrediction str: ", ''.join(result_str))

收藏 推荐 打印 | 录入:Cstor | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款