rnn网络训练方法(rnn在时间序列的表现)

技术RNN如何训练并预测时序信号RNN如何训练并预测时序信号,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。上期我们一起用RNN做了一个简单的手写字分类器

RNN如何训练和预测时间序列信号,针对这个问题,本文详细介绍了相应的分析和解决方法,希望能帮助更多想要解决这个问题的小伙伴找到更简单、更容易的方法。

在上一期中,我们用RNN做了一个简单的手写分类器,

今天,让我们学习RNN如何训练和预测时间序列信号,如股价、温度、脑电波等。

每个训练样本从时间序列信号中随机选择20个连续值,训练样本的对应目标是在下一个时间方向上移动一步的20个连续值,即除了最后一个值之外,前面的值与训练样本的最后19个值相同的序列。下图:

RNN如何训练并预测时序信号

首先,我们创建一个RNN网络,它包括100个循环神经元。因为训练样本的长度是20,我们将其扩展为20个时间段。每个输入包含一个特征值(当时的值)。同样,目标也包含20个输入。代码如下,与前一个类似:

n步=20

n_inputs=1

n_neurons=100

n_outputs=1

X=tf.placeholder(tf.float32,[无,n_steps,n_inputs])

y=tf.placeholder(tf.float32,[None,n_steps,n_outputs])

cell=TF . contrib . rnn . basicrncell(num _ units=n _ neurons,activation=tf.nn.relu)

Outputs,States=TF.nn.dynamic _ rnn (cell,x,dtype=TF.float32)每时每刻,我们都有一个大小为100的输出向量,但实际上,我们需要的是一个输出值。最简单的方法是用Out putProjectionWrapper包装循环神经元。包装器像一个循环神经元一样工作,但叠加了其他功能。例如,它在循环神经元的输出端增加了线性神经元的全连接层(这不影响循环神经元的状态)。所有完全连接的层神经元共享相同的权重和偏差。下图:

RNN如何训练并预测时序信号

包裹一个循环神经元非常简单。只需微调前面的代码,将基本单元格转换为输出项目包装器,如下所示:

cell=TF . contrib . rnn . outputprojectionwrapper(

TF . contrib . rnn . basicrncell(num _ units=n _ neurons,activation=tf.nn.relu),

Output_size=n_outputs)到目前为止,我们可以定义损失函数。就像我们以前做回归一样,我们在这里使用均方误差。接下来,创建另一个优化器,并在此选择Adam优化器。如何选择优化器,参见上一篇文章:深度学习算法(第5期)——深度学习中的优化器选择。

学习率=0.001

损耗=tf.reduce_mean(tf.square(输出- y))

optimizer=TF . train . adamotimizer(learning _ rate=learning _ rate)

training _ op=optimizer.minimize(损失)

init=TF . global _ variables _ initializer()下一步是执行阶段:

n _迭代=10000

批处理大小=50

和tf一起。会话()作为会话:

init.run()

对于范围内的迭代(n_iterations):

X_batch,y_batch=[.] #获取下一个训练批次

sess.run(training_op,feed_dict={X: X_batch,y: y_batch})

如果迭代% 100==0:

MSE=loss . eval(feed _ dict={ X : X _ batch,y: y_batch})

打印(迭代,' \ tmse: ',mse)的输出结果如下:

0 MSE: 379.586

100毫秒: 14.58426

200 MSE: 7.14066

300 MSE: 3.98528

400 MSE: 2.00254

[.]一旦模型经过训练,就可以用来预测:

X_new=[.] #新序列

Y _ pred=sessions.run (outputs,feed _ dict={x:x _ new})下图显示了使用上述代码进行1000次迭代训练后模型的预测结果:RNN如何训练并预测时序信号

虽然使用OutputProjectionWrapper是将RNN的输出序列减少到一个值的最简单的方法,但它不是最有效的。这里有一个技巧可以更有效:首先,将RNN输出的形状从[batch_size,n_steps,n_neurons]转换为[batch_size * n_steps,n_neurons],然后输出一个[batch_size * n_steps,N_outputs],最后将张量改为[batch_size,n_steps,n_outputs]。如下所示:RNN如何训练并预测时序信号

实施这个计划并不难。不需要输出项目包装器,只需要基本单元,如下所示:

cell=TF . contrib . rnn . basicrncell(num _ units=n _ neurons,activation=tf.nn.relu)

Rnn _ outputs,States=TF.nn.dynamic _ rnn (cell,x,dtype=TF.float32)然后,我们刷新结果,全连接层,然后按如下方式刷新它们:

stacked _ rnn _ outputs=TF . resform(rnn _ outputs,[-1,n_neurons])

堆叠输出=完全连接(堆叠rnn输出,n输出,

激活_ fn=无)

输出=TF。整形(stacked _ outputs,[-1,n _ steps,n _ outputs])下一个代码与上一个代码相同。因为这次只使用了一个全连接层,所以速度比以前快很多。

关于RNN如何训练和预测时间序列信号的问题的答案将在这里分享。希望

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/154128.html

(0)

相关推荐

  • apachesparkapi(apachespark中文实战攻略)

    技术怎么使用Apache Spark构建分析Dashboard这篇文章主要介绍“怎么使用Apache Spark构建分析Dashboard”,在日常操作中,相信很多人在怎么使用Apache Spark构建分析Dashbo

    攻略 2021年12月14日
  • mysql设置字段为varchar(mysql怎么把varchar改类型)

    技术mysql如何转换varchar这篇文章主要介绍了mysql如何转换varchar,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。

    攻略 2021年12月16日
  • relationship,relationship的翻译

    技术relationship,relationship的翻译relationship 英[rɪˈleɪʃnʃɪp] 美[rɪˈleʃənˌʃɪp] n. 关系; 联系; 浪漫关系; 血缘关系;

    生活 2021年10月25日
  • 一次曲折的单点集成之旅

    技术一次曲折的单点集成之旅 一次曲折的单点集成之旅原有的系统是mvc 4.6的,要加一个简单的单点系统。经简单比较好,决定选用ids3做service。
    集成的方法直接看官方的示例即可:https://

    礼包 2021年11月22日
  • 树莓派上如何安装SVN服务器

    技术树莓派上如何安装SVN服务器这篇文章主要介绍了树莓派上如何安装SVN服务器,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。sudo apt-get in

    攻略 2021年11月20日
  • 在计算机中一个字节是由几位二进制码表示的

    技术在计算机中一个字节是由几位二进制码表示的这篇文章主要介绍“在计算机中一个字节是由几位二进制码表示的”,在日常操作中,相信很多人在在计算机中一个字节是由几位二进制码表示的问题上存在疑惑,小编查阅了各式资料,整理出简单好

    攻略 2021年10月25日