admin 管理员组

文章数量: 1184232

【预训练语言模型】ERNIE1.0: Enhanced Representation through Knowledge Integration

简要信息:

序号属性
1模型名称ERNIE1.0
2发表位置-
3所属领域自然语言处理、预训练语言模型
4研究内容知识增强的预训练语言模型
5核心内容BERT改进
6GitHub源码https://github/PaddlePaddle/ERNIE
7论文PDFhttps://arxiv/pdf/1904.09223

一、动机

  • 先前的大部分工作只使用了文本来预测missing word,忽略了文本自身的先验信息,例如文本中的实体;
  • 除了传统的single toke masking,对整个entity(multi tokens word或phrase)进行mask,在训练时则可以捕捉实体的语义信息;

二、方法

2.1 Transformer

  选择多层Transformer作为基础模型,使用WordPiece进行分词,并获得token、segment和position embedding。

2.2 Knowledge Integration

  并非将实体knowledge embedding融合到context word embedding(ERNIE-TsingHua版本),而是借助先验知识改进masking策略。
提出三种不同的Masking策略,如下图所示:

  • Basic-level Masking:采用最基础的masking策略,不论文英文还是中文,以single token作为mask对象;
  • Entity-level Masking:实体包含person、location和organization等;
  • Phrase-level Masking:例如词法分析和chunking工具获得一个句子的所有phrase,使用dependent segmentation工具获得word、phrase的属性信息。

  在训练时,依然使用word piece进行分词,但选择不同的masking策略。对于mask的token,训练让模型预测正确的token。

如下图所示,可以直观地看出ERNIE与传统BERT的区别:

三、实验

实验设置:

● 数据:选择多个不同的语料,包括中文Wikipedia、百度百科、百度贴吧和百度新闻等;
● 模型:与BERT-base完全相同;

实验任务:

● NLI:XNLI;
● 语义相似度:LCQMC;
● 实体识别:MSRA-NER;
● 情感分析:ChnSentiCorp;
● 检索式问答:NLPCC-DBQA

实验结果

不同的Masking策略对比:

  取10%的训练数据进行pre-train,并在XNLI任务验证集和测试集上进行测试:

本文标签: 模型 语言 Enhanced Knowledge Representation