提示1:原文链接
提示1:代码链接
文章目录
前言一、论文信息二、笔记要点2.1. 目前存在的问题2.2. 目前解决方法:2.3.本文方法和创新点2.4. 实验效果2.5. 模型结构2.6. 总结和展望总结前言
本篇博客主要是对《Syntax-Aware Aspect-Level Sentiment Classification with Proximity-Weighted Convolution Network》进行了泛读,并对其进行了简单地记录,以帮助大家快速了解此篇论文的要点。
一、论文信息
论文名:《Syntax-Aware Aspect-Level Sentiment Classification with Proximity-Weighted Convolution Network》作者:Chen Zhang, Qiuchi Li, Dawei Song.领域:Aspect-Level Sentiment Classification关键词:Sentiment classification, Syntax-awareness, Proximity-weighted convolution发表年份:会议/期刊名:SIGIR
二、笔记要点
2.1. 目前存在的问题
现有的方法在很大程度上依赖于方面与上下文词的语义相关性建模,而在一定程度上忽略了它们在句子中的句法相关性,即方面与描述其他方面的上下文词汇相关联。
2.2. 目前解决方法:
依赖句法分析解决,但是单词层面的句法分析可能会阻碍不同短语之间的特征提取,因为一个方面的情感极性通常是由一个关键短语而不是一个单词决定的。
2.3.本文方法和创新点
方法
we propose a proximity-weighted convolution network to offer an aspect-specific syntax-aware representation of contexts.我们提出了一个近似加权卷积网络,以提供一个特定于方面的上下文语法感知表示。In particular, two ways of determining proximity weight are explored, namely position proximity and dependency proximity.特别探讨了确定邻近权重的两种方法,即位置邻近和依赖邻近。The representation is primarily abstracted by a bidirectional LSTM architecture and further enhanced by a proximity-weighted convolution.该表示主要通过双向LSTM架构抽象,并通过近似加权卷积进一步增强。
创新点:
位置机制的启发:
该框架受位置机制[3,6,8,14]的启发,利用上下文词与方面的句法接近度,即接近权重来确定其在句子中的重要性。
然后,我们将邻近权值集成到卷积网络中以捕获n-gram信息,称为近似加权卷积网络 (Proximity-Weighted Convolution Network PWCN)。
2.4. 实验效果
实验结果表明,句法依赖比语义关联更有利于情感分类。
2.5. 模型结构
基于LSTM模型框架的改进,本文使用SemEval Task4 数据集,进行模型训练和评估。
2.6. 总结和展望
实验结果表明,句法依赖比语义关联更有利于情感分类。We believe it is a promising direction to dive into concrete examples to analyze the difference between PWCN models and attention based models to achieve a deep understanding of where the syntactical dependencies overwhelm semantic relatedness.我们认为,通过具体的例子来分析PWCN模型和基于注意力的模型之间的差异,从而深入理解语义相关性在哪里超过了语法相关性,是一个很有前景的方向。总结
以上就是本篇博客的全部内容了,希望对你有所帮助。
方面级情感分析论文泛读02:Syntax-Aware Aspect-Level Sentiment Classification with Proximity-Weighted Convolution