这篇文章给大家介绍了基本RNN的Tensorflow实现是怎样的,内容非常详细。感兴趣的朋友可以参考一下,希望对你有所帮助。
今天,让我们来看看基本RNN是如何在张量流中实现的。
首先,为了更好地理解RNN的运行机制,我们不需要通过与张量流相关的RNN的运行来实现一个简单的RNN模型。这里我们创建一个初始的循环神经网络(RNN)
给出了一层5个循环神经元的RNN网络,其中激活函数为tanh,假设RNN只运行两次,每次输入向量的大小为3,显示两次。代码如下:
n_inputs=3
n_neurons=5
X0=tf.placeholder(tf.float32,[None,n_inputs])
X1=tf.placeholder(tf.float32,[None,n_inputs])
Wx=tf。变量(TF . random _ normal(shape=[n _ inputs,n_neurons],dtype=tf.float32))
Wy=tf。变量(TF . random _ normal(shape=[n _ neurons,n_neurons],dtype=tf.float32))
b=tf。变量(tf.zeros([1,n_neurons],dtype=tf.float32))
Y0=tf.tanh(tf.matmul(X0,Wx) b)
Y1=tf.tanh(tf.matmul(Y0,Wy) tf.matmul(X1,Wx) b)
Init=TF。global _ variables _ initializer()这个网络有点缠绕。乍一看,它像一个两层前向传输网络。其实不是。首先,两层采用相同的权重和偏差项。其次,每层都有输入,每层都有单独的输出。为了运行这个模型,我们需要分两次向模型中输入数据,如下所示:
将numpy作为np导入
# Mini-batch:实例0、实例1、实例2、实例3
X0_batch=np.array([[0,1,2],[3,4,5],[6,7,8],[9,0,1]]) # t=0
X1_batch=np.array([[9,8,7],[0,0,0],[6,5,4],[3,2,1]]) # t=1
和tf一起。会话()作为会话:
init.run()
y0 _ val,y1 _ val=sess.run ([y0,y1],feed _ dict={x03360x0 _ batch,x1:x1 _ batch})上的迷你批处理包含两次输入,每次有四个样本,每个样本包含三个特征。最后一个Y0_val和Y1_val包括网络中所有神经元在两个时刻的输出。以下是输出结果:
t=0时打印(Y0_val) #输出
[-0.2964572 0.82874775-0.34216955-0.75720584 0.19011548]#实例0
[-0.12842922 0.99981797 0.84704727-0.99570125 0.38665548]#实例1
[0.04731077 0.99999976 0.99330056-0.999933 0.55339795]#实例2
[0.70323634 0.99309105 0.99909431-0.85363263 0.7472108]]#实例3
t=1时打印(Y1_val) #输出
[[ 0.51955646 1.0.99999022-0.99984968-0.24616946]#实例0
[-0.70553327-0.11918639 0.48885304 0.08917919-0.26579669]#实例1
[-0.32477224 0.99996376 0.99933046-0.99711186 0.10981458]#实例2
[-0.43738723 0.91517633 0.97817528-0.91763324 0.11047263]]# instance 3我在这里分享了什么是基本RNN的Tensorflow实现,希望如此。
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/113762.html