CitePrompt:使用提示识别科学论文中的引用意图

684次阅读
没有评论

CitePrompt: Using Prompts to Identify Citation Intent in Scientific
Papers

解决问题:本篇论文旨在解决科学论文中引用意图分类的问题,并探索了基于提示学习的方法。这是一个相对较新的问题,因为在过去的研究中,人们更多地关注了引用网络的结构和分析。

关键思路:本文提出了一个名为CitePrompt的框架,它基于预训练的语言模型、提示模板和提示生成器,使用基于提示的学习方法对引用意图进行分类。相比于现有的方法,CitePrompt不需要太多关于科学文献的外部信息,就可以获得更好或相当的结果。此外,本文还将引用意图分类任务转化为少样本和零样本学习,这是一个创新的尝试。

其他亮点:本文在ACL-ARC数据集上取得了最先进的结果,并且在SciCite数据集上也比所有基线模型都有显著提高,除了一个。实验中使用了这两个数据集,这些数据集都是公开可用的。作者还提供了他们的代码,方便其他研究者进行复现和扩展。

关于作者:Avishek Lahiri,Debarshi Kumar Sanyal和Imon Mukherjee都是印度理工学院的研究人员。他们之前的代表作包括:Lahiri和Mukherjee在2020年发表在EMNLP上的“Fine-tuning Pretrained Language Models for Automatic Hypernymy Detection”和Sanyal和Mukherjee在2018年发表在ACL上的“Unsupervised Learning of Syntactic Structure with Invertible Neural Projections”。

相关研究:近期其他相关的研究包括:1. “Citation Intent Classification with Multi-Task Learning”,作者为S. Saha和S. Bhatia,机构为印度理工学院;2. “SciBERT: A Pretrained Language Model for Scientific Text”,作者为I. Beltagy、K. Lo和A. Cohan,机构为阿伯丁大学和艾伦研究所。

论文摘要:科学论文中的引用不仅有助于我们追溯知识的渊源,而且还是科学意义的有用指标。引用意图很有益,因为它们指定了引文在给定上下文中的作用。本文介绍了CitePrompt,这是一个框架,它使用了基于提示的学习方法来进行引文意图分类,这一方法迄今尚未被探索。我们认为,通过正确选择预训练语言模型、提示模板和提示语言生成器,我们不仅可以获得比现有最先进方法更好或相当的结果,而且可以在科学文档的外部信息更少的情况下实现这一点。我们在ACL-ARC数据集上报告了最先进的结果,并且在SciCite数据集上显示出除一个基线模型外所有基线模型的显著改进。由于适当大规模标记的引文意图分类数据集可能很难找到,因此我们首次提出将此任务转换为few-shot和zero-shot设置。对于ACL-ARC数据集,我们报告了零样本设置下的53.86%的F1分数,这在5-shot和10-shot设置下分别提高到63.61%和66.99%。

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy