rnn网络训练方法(rnn在时间序列的表现)

技术RNN如何训练并预测时序信号RNN如何训练并预测时序信号,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。上期我们一起用RNN做了一个简单的手写字分类器

RNN如何训练和预测时间序列信号,针对这个问题,本文详细介绍了相应的分析和解决方法,希望能帮助更多想要解决这个问题的小伙伴找到更简单、更容易的方法。

在上一期中,我们用RNN做了一个简单的手写分类器,

今天,让我们学习RNN如何训练和预测时间序列信号,如股价、温度、脑电波等。

每个训练样本从时间序列信号中随机选择20个连续值,训练样本的对应目标是在下一个时间方向上移动一步的20个连续值,即除了最后一个值之外,前面的值与训练样本的最后19个值相同的序列。下图:

RNN如何训练并预测时序信号

首先,我们创建一个RNN网络,它包括100个循环神经元。因为训练样本的长度是20,我们将其扩展为20个时间段。每个输入包含一个特征值(当时的值)。同样,目标也包含20个输入。代码如下,与前一个类似:

n步=20

n_inputs=1

n_neurons=100

n_outputs=1

X=tf.placeholder(tf.float32,[无,n_steps,n_inputs])

y=tf.placeholder(tf.float32,[None,n_steps,n_outputs])

cell=TF . contrib . rnn . basicrncell(num _ units=n _ neurons,activation=tf.nn.relu)

Outputs,States=TF.nn.dynamic _ rnn (cell,x,dtype=TF.float32)每时每刻,我们都有一个大小为100的输出向量,但实际上,我们需要的是一个输出值。最简单的方法是用Out putProjectionWrapper包装循环神经元。包装器像一个循环神经元一样工作,但叠加了其他功能。例如,它在循环神经元的输出端增加了线性神经元的全连接层(这不影响循环神经元的状态)。所有完全连接的层神经元共享相同的权重和偏差。下图:

RNN如何训练并预测时序信号

包裹一个循环神经元非常简单。只需微调前面的代码,将基本单元格转换为输出项目包装器,如下所示:

cell=TF . contrib . rnn . outputprojectionwrapper(

TF . contrib . rnn . basicrncell(num _ units=n _ neurons,activation=tf.nn.relu),

Output_size=n_outputs)到目前为止,我们可以定义损失函数。就像我们以前做回归一样,我们在这里使用均方误差。接下来,创建另一个优化器,并在此选择Adam优化器。如何选择优化器,参见上一篇文章:深度学习算法(第5期)——深度学习中的优化器选择。

学习率=0.001

损耗=tf.reduce_mean(tf.square(输出- y))

optimizer=TF . train . adamotimizer(learning _ rate=learning _ rate)

training _ op=optimizer.minimize(损失)

init=TF . global _ variables _ initializer()下一步是执行阶段:

n _迭代=10000

批处理大小=50

和tf一起。会话()作为会话:

init.run()

对于范围内的迭代(n_iterations):

X_batch,y_batch=[.] #获取下一个训练批次

sess.run(training_op,feed_dict={X: X_batch,y: y_batch})

如果迭代% 100==0:

MSE=loss . eval(feed _ dict={ X : X _ batch,y: y_batch})

打印(迭代,' \ tmse: ',mse)的输出结果如下:

0 MSE: 379.586

100毫秒: 14.58426

200 MSE: 7.14066

300 MSE: 3.98528

400 MSE: 2.00254

[.]一旦模型经过训练,就可以用来预测:

X_new=[.] #新序列

Y _ pred=sessions.run (outputs,feed _ dict={x:x _ new})下图显示了使用上述代码进行1000次迭代训练后模型的预测结果:RNN如何训练并预测时序信号

虽然使用OutputProjectionWrapper是将RNN的输出序列减少到一个值的最简单的方法,但它不是最有效的。这里有一个技巧可以更有效:首先,将RNN输出的形状从[batch_size,n_steps,n_neurons]转换为[batch_size * n_steps,n_neurons],然后输出一个[batch_size * n_steps,N_outputs],最后将张量改为[batch_size,n_steps,n_outputs]。如下所示:RNN如何训练并预测时序信号

实施这个计划并不难。不需要输出项目包装器,只需要基本单元,如下所示:

cell=TF . contrib . rnn . basicrncell(num _ units=n _ neurons,activation=tf.nn.relu)

Rnn _ outputs,States=TF.nn.dynamic _ rnn (cell,x,dtype=TF.float32)然后,我们刷新结果,全连接层,然后按如下方式刷新它们:

stacked _ rnn _ outputs=TF . resform(rnn _ outputs,[-1,n_neurons])

堆叠输出=完全连接(堆叠rnn输出,n输出,

激活_ fn=无)

输出=TF。整形(stacked _ outputs,[-1,n _ steps,n _ outputs])下一个代码与上一个代码相同。因为这次只使用了一个全连接层,所以速度比以前快很多。

关于RNN如何训练和预测时间序列信号的问题的答案将在这里分享。希望

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/154128.html

(0)

相关推荐

  • ajax翻译成什么意思(ajax用英文怎么读)

    技术ajax单词的意思是什么本篇内容主要讲解“ajax单词的意思是什么”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“ajax单词的意思是什么”吧!

    攻略 2021年12月17日
  • 直方图与ACS实例分析

    技术直方图与ACS实例分析本篇内容主要讲解“直方图与ACS实例分析”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“直方图与ACS实例分析”吧!一般情况下ACS必须结合直方图一起

    攻略 2021年11月15日
  • LeetCode 树

    技术LeetCode 树 LeetCode 树认识LeetCode树的定义方式
    /*** Definition for a binary tree node.* struct TreeNode {*

    礼包 2021年11月1日
  • 怎么以软件开发人员的身份更新技能

    技术怎么以软件开发人员的身份更新技能这篇文章主要介绍“怎么以软件开发人员的身份更新技能”,在日常操作中,相信很多人在怎么以软件开发人员的身份更新技能问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家

    攻略 2021年10月21日
  • spring log4j配置(log4j配置详解)

    技术logger4j.properties和log4j.xml怎么配置这篇文章主要介绍“logger4j.properties和log4j.xml怎么配置”,在日常操作中,相信很多人在logger4j.propertie

    攻略 2021年12月17日
  • 抖音一万赞40元,抖音赞多了有什么好处?

    技术抖音一万赞40元,抖音赞多了有什么好处?抖音怎么快速涨粉丝涨赞?抖音快速涨粉丝涨赞技巧。抖音软件中很多人应该都想要粉丝和赞吧!怎么快速涨粉丝涨赞呢?小编为大家带来涨粉丝涨赞的相关技巧,希望能帮助到各位玩家!抖音1w赞

    测评 2021年11月10日