论文部分内容阅读
自然语言处理中很多任务都可以被看作是序列标注(Sequence labeling,SL)问题而得以有效地处理。现有研究大多将这些任务作为独立的序列标注问题来解决,或者以多个辅助任务实现对某个特定目标任务的性能提高,这些研究忽略了自然语言处理中多个任务之间可能存在的潜在关系和影响。为此,本文提出了一种基于自注意力机制的联合序列标注框架模型(self-attention based joint sequence model,SA-JSL),该模型可充分利用多个序列标注任务之间的可能存在的相互作用和影响,从而实现同时促进和提高各个序列标注任务性能。具体来说,该框架模型通过将自注意力机制和联合标签机制融合,将多个序列任务转换为一个统一的序列标注任务来处理,有效地利用率这些任务之间可能存在的潜在关系,从而实现多个任务相互促进和提高。该联合模型与自注意力机制相结合,获取更加丰富的上下文信息,从而提高模型的性能。为了验证模型的有效性,在七个常见的公开数据集上进行了大量的实验,所提联合学习模型分别在中文分词(Chinese Word Segmentation,CWS)和词性(Part-of-Speech tagging,POS)标注联合学习任务与中文分词和中文命名实体识别(Chinese Named Entity Recognition,CNER)联合学习任务上进行实验,实验证明了所提联合学习模型取得了比单任务和多任务学习更为优异的性能。文本生成任务在自然语言处理中是一项具有挑战性的任务,而将文本生成任务中加入可控属性标签难度系数更大。可控文本生成的定义为文本的学习生成是通过动态的标签属性(如情感标签)控制生成一些符合标签属性的生动真实自然语言句子。为此,本文提出了一种融合自注意力机制的生成对抗网络(Generative Adversarial Network,GAN)实现情感可控文本生成的模型,该模型通过充分挖掘文本中潜在语义信息让语言模型对上下文理解透彻包括对于标签属性的描述的理解,从而让生成器能够生成自然流畅的句子。为了让GAN获取更多的语义信息细节,融合自注意力机制提取局部语义信息,为了解决文本序列离散的属性,将GAN中的Softmax(归一化指数函数)替换成Gumbel-Softmax,这种做法能够让模型在有限的离散型数据上达到很高的拟合效果,从而提高可控文本生成的准确性和流畅性。本文将在改进前的GAN网络与改良后的模型进行实验对比,以及融合自注意力机制之后模型的性能,通过实验证明了本文模型在可控文本生成的性能更加优异。