News Center

新闻中心

研究中心四篇论文获SIGIR 2022主会录用

发布人: 发布时间: 2022-04-08 17:04:24 阅读数:

41日,SIGIR 2022录用结果公布。研究中心共有四篇论文被SIGIR 2022主会录用。SIGIR 2022 全称为第 45 届国际信息检索大会(The 45th International ACM SIGIR Conference on Research and Development in Information Retrieval),将于 2022711-715日在西班牙马德里召开。在中国计算机学会推荐会议列表中被列为A类会议。


以下为论文列表及介绍:

题目:Towards Event-level Causal Relation Identification

作者:范创,刘道兴,覃立波,张岳,徐睿峰*

简介:事件因果关系识别旨在判断文档中两个事件间是否存在因果关系,现有相关工作通常研究提及级别(mention-level)的事件因果识别,导致模型的预测结果中存在冲突的问题。例如:事件A在文档中出现了三次,分别为A1A2A3,而事件BB1B2的形式出现。现有模型针对A1B1的预测结果很可能和A2B2的预测结果不一致,这显然不合理。虽然可以利用共指关系对预测结果进行后处理,但本文认为更理想的处理方式是将事件不同的提及信息汇总到概念级别,然后进行因果识别(见下图)。为此,本文将事件提及、事件概念以及文档本身抽象为节点,通过共指与共现等关系连接节点,并利用图卷积运算实现节点间的信息交换。此外,本文利用共指信息对事件根据其出现频率进行排序,提取文档中的主事件信息对事件表示进行特征增强。更进一步地,本文提出了基于多路径的注意力机制,以充分利用事件间的中间节点信息。在EventStoryLine数据集中的实验结果表明,本文提出的方法在事件提及与事件概念级别,均取得了更为优异的性能。


题目:Translation-Based Implicit Annotation Projection for Zero-Shot Cross-Lingual Event Argument Extraction

作者:娄辰玮,高俊,禹常隆,王伟,赵欢,涂威威,徐睿峰*

简介:本文提出了一种基于机器翻译平行语料的隐式annotation projection方法,应用于零样本跨语言事件论元抽取任务中。现有依赖universal linguist features的方法对于小语种而言代价过于高昂,且在实际部署中复杂度过高。使用词对齐工具的annotation projection在其他跨语言任务中取得了很好的效果,但由于存在一定错误率,容易导致脏数据或数据丢失,且这种流水线式的方法也会引入不必要的噪声。基于此,本文提出了一种隐式的annotation projection方法。具体地讲,我们在mBERT基础上提出了一种结合词对齐任务和事件论元抽取任务的多任务学习框架。相比基于词对齐工具的方法,我们的方法隐式地建模词对齐信息,具有更好的鲁棒性。相比于之前依赖universal linguist features的方法,我们的方法更加简单且易于使用。实验验证,我们的方法在ACE05跨语言事件抽取数据集中的9个跨语言方向中取得了SOTA效果。




题目:Enhancing Zero-Shot Stance Detection via Targeted Background Knowledge

作者:祝清麟,梁斌,孙婧伊,杜嘉晨,周蓝珺,徐睿峰*

简介:立场检测旨在识别文本对特定目标的立场。与传统的立场检测任务不同的是,零样本立场检测需要在推理阶段预测未见过目标(target)的立场。人类在做这个任务的时候通常倾向于利用从已知的目标中学习到的知识来推理未知样本的立场。因此,为了更好地将从已知目标学到的与目标相关的知识推广到未见过的目标,我们将维基百科中的与目标相关的背景知识引入模型。背景知识可以被认为是连接已知目标和未见目标之间含义的桥梁,这使得模型在处理零样本立场检测任务时的泛化能力和推理能力得到改善。大量的实验结果表明,我们的模型在零样本立场检测任务上的表现优于最先进的方法。




题目:Masking and Generation: An Unsupervised Method for Sarcasm Detection

作者:王睿,王乾龙,梁斌,陈奕,温志渊,秦兵,徐睿峰*

简介:目前讽刺识别 (Sarcasm Detection) 任务的解决方案都是基于有监督的方法,需要大量的人工标注数据或者文本背景知识。尽管这些方法取得了不错的性能,但标注数据和额外知识的获取往往花费较多人力物力。而讽刺句子的重要元素被遮盖再利用文本生成模型生成后往往与原句子语义有较大差异,而非讽刺句子相比之下语义差异更小。基于此,我们提出一种基于句子遮盖和生成的无监督讽刺识别方法。另外我们引入无监督对比学习以提高模型的句子表示性能,进一步提高了模型讽刺识别的效果。在Perceived讽刺数据集上超过了Baseline,在Intended讽刺数据集上获得了跟有监督的讽刺识别方法相比拟的性能。

(审核:徐睿峰)


Return Top

© 2019 哈尔滨工业大学(深圳)·智能计算研究中心 All rights reserved.