基本RNN的Tensorflow实现是怎样的

技术基本RNN的Tensorflow实现是怎样的这篇文章给大家介绍基本RNN的Tensorflow实现是怎样的,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。今天我们一起看下在tensorflow中基

这篇文章给大家介绍了基本RNN的Tensorflow实现是怎样的,内容非常详细。感兴趣的朋友可以参考一下,希望对你有所帮助。

今天,让我们来看看基本RNN是如何在张量流中实现的。

首先,为了更好地理解RNN的运行机制,我们不需要通过与张量流相关的RNN的运行来实现一个简单的RNN模型。这里我们创建一个初始的循环神经网络(RNN)

给出了一层5个循环神经元的RNN网络,其中激活函数为tanh,假设RNN只运行两次,每次输入向量的大小为3,显示两次。代码如下:

n_inputs=3

n_neurons=5

X0=tf.placeholder(tf.float32,[None,n_inputs])

X1=tf.placeholder(tf.float32,[None,n_inputs])

Wx=tf。变量(TF . random _ normal(shape=[n _ inputs,n_neurons],dtype=tf.float32))

Wy=tf。变量(TF . random _ normal(shape=[n _ neurons,n_neurons],dtype=tf.float32))

b=tf。变量(tf.zeros([1,n_neurons],dtype=tf.float32))

Y0=tf.tanh(tf.matmul(X0,Wx) b)

Y1=tf.tanh(tf.matmul(Y0,Wy) tf.matmul(X1,Wx) b)

Init=TF。global _ variables _ initializer()这个网络有点缠绕。乍一看,它像一个两层前向传输网络。其实不是。首先,两层采用相同的权重和偏差项。其次,每层都有输入,每层都有单独的输出。为了运行这个模型,我们需要分两次向模型中输入数据,如下所示:

将numpy作为np导入

# Mini-batch:实例0、实例1、实例2、实例3

X0_batch=np.array([[0,1,2],[3,4,5],[6,7,8],[9,0,1]]) # t=0

X1_batch=np.array([[9,8,7],[0,0,0],[6,5,4],[3,2,1]]) # t=1

和tf一起。会话()作为会话:

init.run()

y0 _ val,y1 _ val=sess.run ([y0,y1],feed _ dict={x03360x0 _ batch,x1:x1 _ batch})上的迷你批处理包含两次输入,每次有四个样本,每个样本包含三个特征。最后一个Y0_val和Y1_val包括网络中所有神经元在两个时刻的输出。以下是输出结果:

t=0时打印(Y0_val) #输出

[-0.2964572 0.82874775-0.34216955-0.75720584 0.19011548]#实例0

[-0.12842922 0.99981797 0.84704727-0.99570125 0.38665548]#实例1

[0.04731077 0.99999976 0.99330056-0.999933 0.55339795]#实例2

[0.70323634 0.99309105 0.99909431-0.85363263 0.7472108]]#实例3

t=1时打印(Y1_val) #输出

[[ 0.51955646 1.0.99999022-0.99984968-0.24616946]#实例0

[-0.70553327-0.11918639 0.48885304 0.08917919-0.26579669]#实例1

[-0.32477224 0.99996376 0.99933046-0.99711186 0.10981458]#实例2

[-0.43738723 0.91517633 0.97817528-0.91763324 0.11047263]]# instance 3我在这里分享了什么是基本RNN的Tensorflow实现,希望如此。

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/113762.html

(0)

相关推荐

  • 24Django装饰器整体缓存的一种玩法

    技术24Django装饰器整体缓存的一种玩法 24Django装饰器整体缓存的一种玩法一,Django设置缓存的三种类型:#将数据缓存到表里
    CACHE={'default':{'BACKEND':'d

    礼包 2021年12月6日
  • 抖音刷点赞有用吗,抖音点赞和粉丝有什么用

    技术抖音刷点赞有用吗,抖音点赞和粉丝有什么用抖音刷点赞有用吗,抖音点赞和粉丝有什么用
    网络兼职要擦亮双眼,保持警惕,不要轻易相信兼职前需要缴纳的各种费用。
    抖音刷多少赞会限制这种诈骗手段与普通的兼职刷单诈骗相比虽然套路

    测评 2021年11月13日
  • Spring Security中如何进行用户信息UserDetails入门

    技术Spring Security中如何进行用户信息UserDetails入门Spring Security中如何进行用户信息UserDetails入门,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更

    攻略 2021年10月27日
  • 效用中内存分配策略的实例分析

    技术Utility中内存分配策略的示例分析这篇文章主要为大家展示了“Utility中内存分配策略的示例分析”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Utility中内存分

    攻略 2021年12月22日
  • abca式的成语,abac式的形容词语大全

    技术abca式的成语,abac式的形容词语大全碍手碍脚abca式的成语、毕恭毕敬、呆头呆脑、多才多艺、独来独往无尤无怨、无缘无故、无怨无德、无昼无夜、无踪无影 武爵武任、勿怠勿忘、误打误撞、先圣先师、先知先觉 闲非闲是、

    生活 2021年10月21日
  • java数据元素在内存中存放的方式有哪些

    技术java数据元素在内存中存放的方式有哪些这篇文章主要介绍“java数据元素在内存中存放的方式有哪些”,在日常操作中,相信很多人在java数据元素在内存中存放的方式有哪些问题上存在疑惑,小编查阅了各式资料,整理出简单好

    攻略 2021年11月24日