jjzjj

Coreference

全部标签

BERT for Coreference Resolution Baselines and Analysis论文阅读

EMNLP|2019BERTforCoreferenceResolution:BaselinesandAnalysis1.问题基于前面提出的端到端的共指消解模型,如何在基准数据集上表现更好的效能2.解决方法使用Bert来进行改进,在OntoNotes(+3.9F1)和GAP(+11.5F1)基准上取得了显著提升3.摘要优点:论文采用的Bert-large模型与ELMo和Bert-base相比,在区分相关但不同的实体方面特别好缺点:在文档级上下文、会话和提及释义的建模方面仍有进步的空间4.前言Bert的优势:Bert在多个nlp任务[QA\NLI\NER(命名实体识别)]上取得了显著提升Bert