如何用tensorflow构建LSTM实现长尾词预测?

2026-04-13 10:120阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐

本文共计2265个文字,预计阅读时间需要10分钟。

如何用tensorflow构建LSTM实现长尾词预测?

LSTM简介:RNN的梯度消失问题+循环神经网络结构示意图

在过去的时光里,我们学习了RNN循环神经网络。其结构示意图如下:

存在的问题是,当w1、w2、w3等值小于0时,如果一句话过长,那么在神精网络中就会出现问题。

如何用tensorflow构建LSTM实现长尾词预测?

LSTM简介1、RNN的梯度消失问题

在过去的时间里我们学习了RNN循环神经网络,其结构示意图是这样的:

其存在的最大问题是,当w1、w2、w3这些值小于0时,如果一句话够长,那么其在神经网络进行反向传播与前向传播时,存在梯度消失的问题。

0.925=0.07,如果一句话有20到30个字,那么第一个字的隐含层输出传递到最后,将会变为原来的0.07倍,相比于最后一个字的影响,大大降低。

其具体情况是这样的:

长短时记忆网络就是为了解决梯度消失的问题出现的。

2、LSTM的结构

原始RNN的隐藏层只有一个状态h,从头传递到尾,它对于短期的输入非常敏感。

如果我们再增加一个状态c,让它来保存长期的状态,问题就可以解决了。

对于RNN和LSTM而言,其两个step单元的对比如下。

阅读全文

本文共计2265个文字,预计阅读时间需要10分钟。

如何用tensorflow构建LSTM实现长尾词预测?

LSTM简介:RNN的梯度消失问题+循环神经网络结构示意图

在过去的时光里,我们学习了RNN循环神经网络。其结构示意图如下:

存在的问题是,当w1、w2、w3等值小于0时,如果一句话过长,那么在神精网络中就会出现问题。

如何用tensorflow构建LSTM实现长尾词预测?

LSTM简介1、RNN的梯度消失问题

在过去的时间里我们学习了RNN循环神经网络,其结构示意图是这样的:

其存在的最大问题是,当w1、w2、w3这些值小于0时,如果一句话够长,那么其在神经网络进行反向传播与前向传播时,存在梯度消失的问题。

0.925=0.07,如果一句话有20到30个字,那么第一个字的隐含层输出传递到最后,将会变为原来的0.07倍,相比于最后一个字的影响,大大降低。

其具体情况是这样的:

长短时记忆网络就是为了解决梯度消失的问题出现的。

2、LSTM的结构

原始RNN的隐藏层只有一个状态h,从头传递到尾,它对于短期的输入非常敏感。

如果我们再增加一个状态c,让它来保存长期的状态,问题就可以解决了。

对于RNN和LSTM而言,其两个step单元的对比如下。

阅读全文