追一技术分享AI大时代下的NLP预训练模型创新与实践Word格式文档下载.docx
- 文档编号:21345796
- 上传时间:2023-01-29
- 格式:DOCX
- 页数:16
- 大小:1.13MB
追一技术分享AI大时代下的NLP预训练模型创新与实践Word格式文档下载.docx
《追一技术分享AI大时代下的NLP预训练模型创新与实践Word格式文档下载.docx》由会员分享,可在线阅读,更多相关《追一技术分享AI大时代下的NLP预训练模型创新与实践Word格式文档下载.docx(16页珍藏版)》请在冰豆网上搜索。
追一科技在通用预训练模型上进行了持续的投入,主要集中在三个方向上的研究:
中文还未覆盖的各类模型:
主要目的在于研究模型在中文上的表现,并加以改进以进一步提升效果;
针对自身业务特点进行的通用预训练模型:
主要目的在于采用不同的语料构建方式与模型结构、训练任务的设计,以便模型在业务领域中的下游任务能够有更好的表现;
针对特定下游任务形式进行优化的预训练模型:
虽然通用型预训练模型可以在不同的下游任务上直接使用,但在预训练步骤中如果针对下游任务进行特定的设计,可以更好地提升下游任务的表现。
2019年追一科技利用TPU训练了当时中文还未进行覆盖的一些模型,包括中文的T5与BART模型。
T5与BART模型是基于Transformer结构的Encoder-Decoder框架生成式预训练模型,分别由Google与Facebook提出。
同时追一科技针对自己的业务特性,在预训练数据中加入了对话形式的数据,并对Transformer的attention部分进行了增强以进一步提升模型的效果。
年份
模型名
说明
2019
t5-small-supervised-unsupervised-mix
Small版本T5模型,有监督与无监督混训
t5-small-supervised-unsupervised-mix-k128
small版本T5模型,有监督与无监督混训,attention增强
t5--unsupervised
Base版本T5模型,无监督训练
t5-base-supervised-unsupervised-mix
t5-base-supervised-unsupervised-mix-k128
Base版本T5模型,有监督与无监督混训
t5-large-supervised-unsupervised-mix
Large版本T5模型,有监督与无监督混训
t5-large-supervised-unsupervised-mix-k128
Large版本T5模型,有监督与无监督混训,attention增强
bart-small-supervised-unsupervised-mix-k128
Small版本Bart模型,有监督与无监督混训,attention增强
bart-base-supervised-unsupervised-mix-k128
Base版本Bart模型,有监督与无监督混训,attention增强
我们针对T5训练了大中小三个版本,利用我们收集的数据,设计了“有监督数据”与“有监督+无监督数据混训”两种方式,T5模型共7个版本。
而针对BART模型,我们训练了小(small)与中(base)共两个版本。
针对上面两种模型,其中小版本的模型(small)训练时长为2周、中型模型(base)训练时长为3周,大版本(large)训练时长为4周。
除了按照原版T5模型进行训练外,我们针对模型结构进行了相应的调整(attention增强版本)以提升模型的表现。
同时,我们在当时的测试榜单ChineseGLUE的10个不同NLP任务数据集上测试了中文T5模型,并与当时最优的中文RoBERTa-wwm-large进行了比较。
除了上述的大型预训练模型以外,我们还训练了一些小型的模型与一些针对特定下游任务使用的预训练模型。
例如在下表中的RoBERTaTiny、Small版本和BERTTiny、Small版本,对应的是RoBERTa与BERT的微型版本和小型版本,而RoBERTa+则是对模型中的attention部分进行了修改以增强模型的效果。
这些小型的模型体积较小,可以在资源较少的情况下使用,我们将这些模型进行开源以提供给研究者学习使用,共同促进中文NLP社区的发展。
开源地址
RoBERTaTiny
Tiny版本RoBERTa模型,对外开源
RoBERTaSmall
Small版本RoBERTa模型,对外开源
RoBERTa+Tiny
Tiny版本RoBERTa模型增强版本,对外开源
RoBERTa+Small
Small版本RoBERTa模型增强版本,对外开源
BERTSmall
Small版本BERT模型
BERTTiny
Tiny版本BERT模型
2020
WoBERT
加入以词级别的切分方式,有利于文本生成式任务,对外开源
2021
WoBERT+
在WoBERT的基础上进行了词表增强,对外开源
T5PEGASUS
基于T5的摘要式预训练模型,对外开源
RoFormer
自研的旋转位置编码预训练模型,对外开源
SimBERT
在2020-2021年我们又相继开源了SimBERT、WoBERT以及RoFormer三个大型预训练模型。
SimBERT采用的是与BERT相同的模型结构,但在训练时使用了不同的任务。
我们采用抓取的开源数据构建相似句子对,并采用生成与匹配两种方式进行多任务训练,目的是让模型学会自动生成同义句,具体的方式如下图。
SimBERT的生成任务构建方式采用UniLM的训练方式,不同点在于训练时单个样本由近义句子对构成,假设SENT_a和SENT_b是一组近义句,那么在同一个批次(batch)中,将[CLS]SENT_a[SEP]SENT_b[SEP]和[CLS]SENT_b[SEP]SENT_a[SEP]都加入训练,作为序列到序列(sequence-to-sequence)式的近义句生成任务。
而在生成任务的基础之上,我们加入了“分类”任务来增强模型对近义句的学习。
具体的构建方式如下,设每个批次中有
个样本,而模型最后一层[CLS]的特征维度为
,那么对于一个批次的样本,我们将每个样本的[CLS]特征取出可以得到
的特征,然后按行进行归一化得到
然后按如下方式一个批次的计算损失:
其中
为同一批次样本相互之间的余弦距离,
为一个标量超参数(我们在训练时设为30),为元素对应相乘,
为对角矩阵掩码,用来屏蔽样本与自身的距离。
且
代表矩阵P的第i行的第j个元素,而其中j为同一批次中与i互为相似句的样本的序号。
这个损失实际上是在同一个批次中拉近两个互为相似句的样本的距离,采用这样的方式可以让模型更加明确的学习相似句之间的特征关系。
生成同义句这一任务形式有广泛的运用空间,其中最典型的运用是可以用来扩充文本分类任务的训练数据。
WoBERT同样也是采用BERT的结构,但区别是在训练中加入的词,这是一个专门为生成式下游任务训练的模型。
中文BERT模型原本的词表只包含字(词会被拆解成字进行编码),而采用以字为编码的模型在用作生成的时候也是以字为粒度来进行生成的。
但这种以字为粒度的生成方式有两个主要的弊端,第一是对于相同长度的句子,字粒度式的生成比词粒度式的生成需要更长的序列,这导致生成的时间过长,并且过长的生成序列还容易造成在解码阶段带来的累积误差。
第二个问题是中文的词很多时候是固定搭配,拆为字来进行生成增加了模型生成的难度。
基于以上的原因,我们在保留原本BERT词表中的字的基础上,新增了一定数量的词,并进行再训练。
我们对比了WoBERT与常规的BERT在生成式任务上的效果,其结果也表明以词粒度进行生成能取得更好的效果。
目前,我们在WoBERT的基础上进一步地增强了词表的构建方式,训练了增强版模型WoBERT+,目前正在进行的内部测评。
结果表明,在文本分类任务上,WoBERT+比WoBERT有更加优秀的表现。
T5PEGASUS是我们今年开源的基于T5模型采用文本摘要式任务进行预训练的大型模型。
我们采用“伪摘要”的方式来构建数据,并进行摘要生成的方式进行训练。
具体来说,假设一个文档有n个句子,我们从中挑出大约n/4个句子(可以不连续),使得这n/4个句子拼起来的文本,跟剩下的3n/4个句子拼起来的文本,最长公共子序列尽可能长。
然后我们将3n/4个句子拼起来的文本视为原文,n/4个句子拼起来的文本视为摘要,构成了一个“(原文,摘要)”的伪摘要数据对,并进行序列生成的训练。
选取句子的方式采用如下的贪心算法进行:
1.从全部的n的句子中找出1句,使得其与剩下的n-1句有最大公共子序列;
2.设已经找出k个句子,我们从剩下的n-k个句子中找出第k+1个句子,使得组成的所有k+1个句子与剩下的n-k-1个句子有最大公共子序列;
3.重复执行第二步,直到找出的句子的总长度满足一定的设定要求;
按照如上方式,我们自动构建出大量的“伪摘要”数据,下图为样本的例子。
经过预训练后,我们测试了T5PEGASUS模型在生成式摘要任务上的效果,结果表明经过专门的生成式预训练,T5PEGASUS的表现确实能够超过基于语言模型式预训练的模型。
同时T5PEGASUS还具出色的小样本学习能力,也就是说,在只有少量的标注数据的情况下,同样能获得不错的摘要生成效果。
从结果上可以看出,当样本量越少时,T5PEGASUS的优势越明显。
目前基于Transformer结构的预训练模型在位置编码上大多可以分为函数式编码、绝对位置编码以及相对位置编码三类。
函数式编码的代表则是原版的Transformer采用的Sinusoidal位置编码。
而绝对位置编码的代表则是BERT采用的每个位置设置一个向量,并通过预训练参与学习的位置编码方式。
相对位置编码的代表则是在XLNET与T5中采用的编码方式。
总体来说,绝对位置编码比函数式编码有相对较好的效果,但由于是预先定好总的编码长度,因此在下游任务上使用时对序列长度有限制,而相对位置编码则可以解决这个问题。
除此以外,学界还提出了一些较为特殊的位置编码方式,如Encodingwordorderincomplexembeddings中提出的采用复数形式去编码位置。
而我们同样借助复数的思路,提出采用复数运算的法则可以得出将绝对位置与相对位置相结合的编码方式,但同时模型依然保持在实数范围内运算的方法。
通常认为在文本任务中,词的相对位置信息是最有作用的,因此通常来说任务位置编码的体现主要是在进行Attention计算时,考虑如下的Attention计算:
当采用绝对位置编码时,位置信息的计算会体现在内积
部分以及
中。
而在一些相对位置编码方式中,
的位置信息会被舍弃,我们也采用这种思路,只考虑在内积部分引入位置信息来体现位置
与位置
的关系。
简单起见我们先假设
为二维向量的情况,那么其内积的运算过程可以从复数的角度来看:
其中为
取实部,
为
的共轭复数。
那么我们就可以在这里分别加入依赖的
绝对位置信息,即将其变为
,这样上述的内积则变为:
从上式的右边可以看到,加入的绝对位置信息在内积后变为了只依赖其相对值
。
虽然整个过程是从复数的视角来进行推导的,但实际上在实现的过程中并不需要引入复数的神经网络。
假设某个位置
上的二元向量为
,那么对其乘上
的过程可以根据欧拉公式写为:
即将
通过引入
,用如下的形式加入位置信息:
上述式子表明在进行Attention运算之前按照其方式加入依赖绝对位置的信息,通过内积运算后得到的结果反映出了相对位置。
而上述的推导是在二维向量上进行的,通常在Transformer中的特征维度都很大,但我们可以将所有特征维度看作每两个元素为一组的多组二维向量,并在每组上采用不同的
即可,具体的流程如下图:
由于其特殊的位置编码方式,RoFormer可以编码任意长度的文本。
我们在Call2019-SCM任务上对比了RoFormer与BERT以及WoBERT的效果:
验证集
测试集
BERT-512
64.13%
67.77%
WoBERT-512
64.07%
68.10%
RoFormer-512
68.29%
RoFormer-1024
66.07%
69.79%
其中“-”后面的参数是微调时截断的最大序列长度,可以看到RoFormer确实能较好地处理长文本语义。
未来我们还将对RoFormer做进一步的研究实验,在更多的场景中测试其效果。
02
业务型预训练模型
业务型预训练模型是针对追一科技的一些列产品形式专门设计的大型预训练模型。
在实际的业务场景中,往往会面数据量少、数据质量低、行业专有概念多以及语义粒度细等一系列问题。
而通用的大型预训练模型,由于其非限定语料以及语言模型任务的训练方式,虽然可以在开放领域上的大多下游任务中有着不错的平均表现,但在特定的专业领域和特定的任务上的表现却并不是最优的。
针对这一情况,我们希望在业务中使用的预训练模型能够在拥有大型通用预训练模型的整体能力外,还能针对领域专业词汇理解、数据效率、模型鲁棒性等方面有专门的优化与提升。
我们将用在业务中的大型预训练模型命名为ZOne(Zero-shotLanguage
Encoder)。
它在业务场景中的表现不仅比开源的通用大型预训练模型有更好的效果,有更高的数据利用效率,同时还具有零样本的能力(即在没有相关业务标注数据的情况下进行语义理解)。
ZOne以我们的通用预训练模型为基础,在预训练阶段除了使用公开数据外,还加入了追一科技多年积累的行业数据,并融合了SimBERT近义句建模与WoBERT融入词粒度的特点。
除此以外,ZOne还结合下游任务形式设计了多个损失函数进行多任务联合训练,我们将会在以后的文章中介绍ZOne模型的更多情况。
我们在8个不同行业的业务数据上对比了ZOne模型与BERT、RoBERTa等的大型预训练模型的效果。
上表以谷歌的开源中文BERT为基准,对比了其它开源的中文模型以及ZOne模型在业务上的效果。
从结果中可以看出,在BERT之后提出的预训练模型,例如BERTWWM、ELECTRA、RoBERTa等均要比BERT模型有更好的表现,而我们专门为业务定制的ZOne模型则在所有被测业务数据上均好于其它开源的通用大型预训练模型。
这表明BERT、RoBERTa等开源的大型预训练模型在专业领域中的特定任务上的效果虽然能高于非预训练模型,但其效果依然不如专门为业务场景设计的ZOne模型。
另一方面,不同业务场景的数据质量与数量参差不齐,特别是在冷启动时通常会面临缺少数据的问题,因此我们希望ZOne模型在全量数据下有更好表现的同时,也需要兼顾数据使用效率。
而ZOne模型采用了特殊的预训练方式,具有在业务领域进行零样本的预测能力。
零样本预测指的是在业务没有标注数据时,在不用标注数据对ZOne模型进行微调的情况下,直接只用预训练好的ZOne模型进行直接预测。
上图中我们对七个业务进行了零样本能力的测试,其中Finetune对应有标注数据的情况,未Finetune对应零样本情况。
从结果中可以看到即便是在没有数据的情况下,ZOne模型在7个业务上的效果也都基本达到80%以上的准确率。
除了零样本能力外,我们还测试了ZOne模型在业务数据上的准确率与微调数据量之间的关系,以此来反映模型在微调阶段对数据量的需求情况。
上图以全量数据时各业务的准确率为基准,对比8个业务在微调数据量逐步增加的情况下准确率的变化。
从图中可以看到,随着数据量的增加,准确率不断上升,而所有的业务都在只使用60%的数据量的情况下,可以达到使用全量数据时95%的效果,该结果表明在面对业务数据时,ZOne模型有较高的数据利用率。
2020年我们对ZOne模型进行了两次升级迭代(分别对应下表的黄色与橙色部分),改进了预训练的损失函数计算方式,以及训练时的样本采样策略,同时引入的文本检索任务,以提高ZOne提取文本特征的能力。
这一系列改动提高了模型在单个业务上的表现,同时也将模型微调阶段对数据的需求量进一步降低。
新版本的ZOne模型在整体8个业务上的平均准确率比旧版本的ZOne模型提升了4%。
同时从下图可以看到新版本的ZOne模型对数据的需求量进一步降低,即使用20%~40%的数据量便可以达到全量数据的95%准确率。
另一方面,ZOne作为大型的预训练模型,对微调与推理的资源有一定的要求。
考虑到实际生产环境的资源限制与性能要求的不同,我们用模型蒸馏的方式来最大限度保留模型效果的前提下,压缩模型的大小并加快模型的微调与推理速度。
上表中的ZOne-distill(绿色部分)模型为ZOne的蒸馏版本,其体积为原模型的四分之一,微调与推理速度的提升在3倍以上,而模型效果只比原模型下降1%。
蒸馏的小型ZOne模型目前正用于追一科技的一些轻量级产品线上。
03
共同促进中文NLP技术发展
追一科技是国内最早将深度学习技术用于自然语言处理场景,并进行工业化落地的公司之一。
我们从成立至今,一直致力于使用最前沿的技术解决现实中的实际问题。
在2016年我们便使用基于RNN的模型进行语义理解的任务,2017年在模型中引入多任务的训练方式,进一步提高多个核心模式的效果。
2018年我们开始尝试Transformer结构的模型,并在2019年开始进行自研的大型预训练模型研发。
从2019年至今,我们研发了多个通用领域领域的大型预训练模型,并结合预训练与迁移学习的思路,结合自身的业务领域特点,设计了专门的预训练模型供给公司的不同业务产品线中使用,大幅提高了产品的效果与实际的体验。
在大型预训练模型这一方向上,我们会保持持续投入,在保持业务效果优势的同时也会为中文NLP社区提供更多的开源模型,共同促进中文NLP技术的发展。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 技术 分享 AI 时代 NLP 训练 模型 创新 实践