深度学习中的注意力机制,如何应用于长尾词的识别与处理?
- 内容介绍
- 文章标签
- 相关推荐
本文共计1394个文字,预计阅读时间需要6分钟。
一、引言
本文基于实现LSTM中文情感倾向分析的基础,探讨了提高情感倾向预测准确度的方法。文章重点引入了一个注重力机制模块,通过阅读相关学术文献和资料,对研究成果进行归纳总结。
二、注重力机制模块
1. 模块概述
注重力机制(Attention Mechanism)是一种用于处理序列数据的机制,它能够使模型更加关注序列中的重要信息。在情感倾向分析中,引入注重力机制有助于提高模型对关键情感词汇的识别和权重分配。
2. 模块设计
(1)输入层:接收LSTM模型输出的序列特征。
(2)注意力层:计算序列中每个单词的注意力权重。
(3)加权层:根据注意力权重对序列特征进行加权求和。
(4)输出层:输出加权后的序列特征,作为情感倾向分析的输入。
3. 模块优势
(1)提高模型对关键情感词汇的识别能力。
(2)增强模型对情感倾向的预测准确性。
(3)有助于模型在处理长文本时保持较高的性能。
三、相关学术文献与资料
1. Bahdanau, D., Cho, K., & Bengio, Y. (2014). Neural machine translation by jointly learning to align and translate. In Proceedings of the ICLR.
2. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need. In Advances in neural information processing systems.
3. Chen, D., Zhang, Y., & Hovy, E. (2017). A simple and effective method for sentiment analysis. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers).
四、总结
本文通过引入注重力机制模块,探讨了提高LSTM中文情感倾向分析准确度的方法。通过对相关学术文献和资料的归纳总结,为后续研究提供了有益的参考。
一、前提该篇为基于实现LSTM中文情感倾向分析的基础上,为提高情感倾向预测的准确度,而引入的一个注意力机制模块,通过翻阅相关学术文献和其他资料所作的归纳总结。二、注意力机制简介简单
一、前提
该篇为基于实现LSTM中文情感倾向分析的基础上,为提高情感倾向预测的准确度,而引入的一个注意力机制模块,通过翻阅相关学术文献和其他资料所作的归纳总结。
二、注意力机制简介
简单来说,注意力机制与人类视觉注意力相似,正如人在看事物一样,会选择重点的对象,而忽略次要对象。近几年来,注意力机制在图片处理领域和自然语言处理领域得到广泛的应用,并展现出显著的效果。注意力机制主要是利用神经网络找到输入特征的有效部分。
三、Encoder-Decoder模型
注意力机制的框架主要是基于Encoder-Decoder框架发展而来。Encoder-Decoder模型又被称为编码-解码模型,其中Encoder会将输入的句子序列转化为一个固定长度的向量,Decoder会将该向量在转化为其他语言形式的句子序列。自然语言处理中的Encoder-Decoder框架如下图1所示(注:图片来源于网络)
图1 Encoder-Decoder框架
给出一组文本(X,Y),其中X={x1,x2,x3,...,xn},Y={y1,y2,y3,...,ym}。Encoder对X文本进行编码处理,通过非线性变换转化,将X文本转化为中间语义C,其表达式为:
C=φ(x1,x2,x3,...,xn)
Decoder对中间语义C和已生成的历史信息{y1,y2,y3,...,yi-1}来生成i时刻的信息yi,其表达式为:
yi=φ(C,y1,y2,y3,...,yi-1)
四、Attention模型
从Encoder-Decoder框架中可以注意到,每预测一个yi所对应的语义编码都是C,说明X中的每个词汇对Y中的每个词汇的影响程度都是相同的,这样会导致语义向量无法表达整个文本的信息,使得解码效果降低。基于Encoder-Decoder框架无法突出输入序列的区分度,因而专家们提出了注意力机制使Encoder-Decoder框架缺陷得到改善。注意力机制的结构框架如图2所示:
图2 注意力机制框架
当生成目标句子词汇yi时,都有唯一中间语义Ci与之对应,其中i=(1,2,3,...),其表达式如下所示:
y1=Φ(C1)
y2=Φ(C2,y1)
y3=Φ(C3,y1,y2)
以此类推,当i时刻时,
yi=Φ(Ci,y1,y2,y3,...,yi-1)
其中Ci与Encoder-Decoder框架中的中间语义C有所区别,它是一个权重处理后的权值,Ci的表达式为(注:由于博客无法使用MathType编写的公式,且本地编写困难,这里用截图代替)
其中,Vij表示为编码中的第j个词汇与解码中的第i个词汇之间的权值,hj表示为Encoder中第j个词汇的隐向量,bij表示一个矩阵,用于衡量编码中第i个词汇对解码中的第j个词汇的影响程度。
深度学习之注意力机制
本文共计1394个文字,预计阅读时间需要6分钟。
一、引言
本文基于实现LSTM中文情感倾向分析的基础,探讨了提高情感倾向预测准确度的方法。文章重点引入了一个注重力机制模块,通过阅读相关学术文献和资料,对研究成果进行归纳总结。
二、注重力机制模块
1. 模块概述
注重力机制(Attention Mechanism)是一种用于处理序列数据的机制,它能够使模型更加关注序列中的重要信息。在情感倾向分析中,引入注重力机制有助于提高模型对关键情感词汇的识别和权重分配。
2. 模块设计
(1)输入层:接收LSTM模型输出的序列特征。
(2)注意力层:计算序列中每个单词的注意力权重。
(3)加权层:根据注意力权重对序列特征进行加权求和。
(4)输出层:输出加权后的序列特征,作为情感倾向分析的输入。
3. 模块优势
(1)提高模型对关键情感词汇的识别能力。
(2)增强模型对情感倾向的预测准确性。
(3)有助于模型在处理长文本时保持较高的性能。
三、相关学术文献与资料
1. Bahdanau, D., Cho, K., & Bengio, Y. (2014). Neural machine translation by jointly learning to align and translate. In Proceedings of the ICLR.
2. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need. In Advances in neural information processing systems.
3. Chen, D., Zhang, Y., & Hovy, E. (2017). A simple and effective method for sentiment analysis. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers).
四、总结
本文通过引入注重力机制模块,探讨了提高LSTM中文情感倾向分析准确度的方法。通过对相关学术文献和资料的归纳总结,为后续研究提供了有益的参考。
一、前提该篇为基于实现LSTM中文情感倾向分析的基础上,为提高情感倾向预测的准确度,而引入的一个注意力机制模块,通过翻阅相关学术文献和其他资料所作的归纳总结。二、注意力机制简介简单
一、前提
该篇为基于实现LSTM中文情感倾向分析的基础上,为提高情感倾向预测的准确度,而引入的一个注意力机制模块,通过翻阅相关学术文献和其他资料所作的归纳总结。
二、注意力机制简介
简单来说,注意力机制与人类视觉注意力相似,正如人在看事物一样,会选择重点的对象,而忽略次要对象。近几年来,注意力机制在图片处理领域和自然语言处理领域得到广泛的应用,并展现出显著的效果。注意力机制主要是利用神经网络找到输入特征的有效部分。
三、Encoder-Decoder模型
注意力机制的框架主要是基于Encoder-Decoder框架发展而来。Encoder-Decoder模型又被称为编码-解码模型,其中Encoder会将输入的句子序列转化为一个固定长度的向量,Decoder会将该向量在转化为其他语言形式的句子序列。自然语言处理中的Encoder-Decoder框架如下图1所示(注:图片来源于网络)
图1 Encoder-Decoder框架
给出一组文本(X,Y),其中X={x1,x2,x3,...,xn},Y={y1,y2,y3,...,ym}。Encoder对X文本进行编码处理,通过非线性变换转化,将X文本转化为中间语义C,其表达式为:
C=φ(x1,x2,x3,...,xn)
Decoder对中间语义C和已生成的历史信息{y1,y2,y3,...,yi-1}来生成i时刻的信息yi,其表达式为:
yi=φ(C,y1,y2,y3,...,yi-1)
四、Attention模型
从Encoder-Decoder框架中可以注意到,每预测一个yi所对应的语义编码都是C,说明X中的每个词汇对Y中的每个词汇的影响程度都是相同的,这样会导致语义向量无法表达整个文本的信息,使得解码效果降低。基于Encoder-Decoder框架无法突出输入序列的区分度,因而专家们提出了注意力机制使Encoder-Decoder框架缺陷得到改善。注意力机制的结构框架如图2所示:
图2 注意力机制框架
当生成目标句子词汇yi时,都有唯一中间语义Ci与之对应,其中i=(1,2,3,...),其表达式如下所示:
y1=Φ(C1)
y2=Φ(C2,y1)
y3=Φ(C3,y1,y2)
以此类推,当i时刻时,
yi=Φ(Ci,y1,y2,y3,...,yi-1)
其中Ci与Encoder-Decoder框架中的中间语义C有所区别,它是一个权重处理后的权值,Ci的表达式为(注:由于博客无法使用MathType编写的公式,且本地编写困难,这里用截图代替)
其中,Vij表示为编码中的第j个词汇与解码中的第i个词汇之间的权值,hj表示为Encoder中第j个词汇的隐向量,bij表示一个矩阵,用于衡量编码中第i个词汇对解码中的第j个词汇的影响程度。
深度学习之注意力机制

