本篇文章2644字,读完约7分钟

雷技术评论:虽然acl 2017已经走到了尽头,精彩的论文的解释还在继续。下面是雷锋在acl网站上记录的支林杨的报告。支林·杨是卡耐基·梅隆大学计算机科学学院语言与技术研究所的博士生,威廉·w·科恩和罗斯兰·萨拉库蒂诺夫是两头牛。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

目前,qa需要手动注释来获取数据集,这通常成本很高。Z yang等人提出了一种半监督生成的领域自适应网络模型,该模型通过引入gan和领域标签,并同时使用已标记数据和未标记数据对模型进行训练,取得了较好的效果。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

图形共享摘要

你好,我是支林·杨,我将谈论半监督问答。这项工作是由我和胡俊杰、罗斯兰·萨拉赫丁诺夫以及威廉·科恩共同完成的。

动机和问题

近年来,许多神经网络模型出现在质量保证中。这些模型通常面临一个问题,那就是,如果他们想训练好,他们需要大量的训练数据。目前,有一些这样的数据库,如班,手工生成问答对。这种数据库收集非常费时费力。这种自动问答配对生成也有一些无监督的模型,它们使用多层rnn、注意力、匹配和其他技术,但是这些模型通常很大。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

一边是耗时费力的手工问答,另一边是可以从维基百科大量下载的无标记文本。然后我们自然会想到“半监督问答”。

所谓的“半监督问答”是指使用少量已标记的问答对和大量未标记的文本来训练问答模型,并使用未标记的文本来提高问答的性能..

但是我们会遇到几个困难。首先,标准的半监督学习方法在这里不适用。比较半监督学习的问答设置和标准设置,我们可以看到数据格式是不同的。例如,在标记的数据中,标准设置只有两个项目(x,y),而问答设置有三个项目:段落、问题和答案。所以我们不能使用标准的半监督学习算法,所以我们必须自己开发一种新的方法。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

第二个困难是我们只有少量的标记数据可用。我们如何使用无标签文本来提高问答模型的性能?

半监督问答模型

为了解决前两个问题,我们采用一种改进的生成对抗网络的方法来建立半监督问答模型。首先,我们从未标记的文本开始,使用nlp标签和一些规则从文本中生成可能的“答案”。我们应该注意这里固定的评分方法和规则。然后我们将使用“段落”和“答案”通过问题生成器自动生成“问题”。因此,“段落”、“问题”和“答案”可以视为一个“有标记的”数据集。我们用这个数据集来训练问答模型中的辨别者。然而,有几个问题需要解决。首先,我们注意到模型生成的数据集不同于人类注释数据集。其次,我们如何连接发生器和鉴别器?

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

为了解决第一个问题,我们使用领域标记来区分模型生成的数据和人类生成的数据。我们使用“真”标签来表示人类标记的数据,“假”标签来表示未标记的数据(或模型生成的数据)。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

如何连接发生器和鉴别器?我们使用自动编码器将“段落”自动编码为“01”序列,选择为“答案”的部分为“1”,否则为“0”。“问题”由生成器生成,然后“答案”也将是“段落”中的“1”。损失函数将通过比较前后两个“答案”序列的符合程度得到。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

该图显示了我们如何通过生成对抗网络来训练半监督问答模型。首先,我们用生成器生成的未标记的“段落”和“问题”来训练鉴别器。请注意,这里使用的字段标签是“假的”。在右图中,我们训练了生成器,但是在这里我们使用了标签“真”而不是标签“假”,即人类标记的“段落”和“问题”。这种结果对抗训练的结果可以通过鉴别者鉴别问题答案的概率来衡量。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

这是生成gdan模型的数学公式。在该模型中,我们选择门控注意阅读器作为鉴别器,seq2seq模型作为生成器。

模型训练

在我们的gdan模型中,如果训练没有停止,我们首先修复生成器,并通过标记为“假”的数据用最陡梯度下降法(sgd)更新鉴别器。另一方面,我们固定了鉴别器,并通过域标记为“真”的数据,用增强法和最速梯度下降法更新生成器。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

实验及结果分析

接下来,让我们来看看这个实验。

我们选择小队数据作为标记数据,10%作为测试集。未标记的数据来自维基百科。我们从维基百科上收集了100万个“段落”,生成了500万个“答案”,这大约是班的50倍。我们选择了四个模型进行比较,即sl(监督学习)、context(使用邻近单词作为问题)、gan(使用gan生成器进行训练)和ae(使用自动编码目标进行训练)。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

这是我们实验的结果。第一列标注率是我们的标注数据使用率。这里,0.1表示使用了8000个标记样本。可以看出,我们的模型优于其他模型,无论是f1-score(测试准确度的一种度量)还是em(精确匹配)。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

让我们先来看看与sl模型的比较。我们可以看到,当标记数据的使用率为0.1时,我们的f1模型分数比sl模型高10%,em高7%。当数据利用率为0.2时,f1仍然高出7%,em高出6%。因此,我们的模型远远优于监督学习模型。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

与其他模型相比,精度也有很大提高。

即使sl模型使用0.2数据,它的模型精度也没有我们使用0.1数据时高。因此,即使我们的模型只使用了一半的数据,它仍然比sl模型好。

然而,存在一个问题,即当标记数据丰富时,很难通过增加未标记数据的数量来提高模型的性能。我希望我们将来能解决这个问题。

此图显示了生成的“问题”样本,其中“基本事实问题”是手动标记的“问题”,“最大似然”表示通过最大似然估计方法生成的“问题”,“rl”表示通过增强学习方法生成的“问题”。可以看出,与最大似然法生成的“问题”相比,反向传播法生成的“问题”包含的信息更多,未知的“问题”更少。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

在这里我们还可以看到,在生成的“问题”中有一些语法错误。然而,我们应该强调的是,只要能够提高qa模型的性能,这些语法错误是否发生都没有关系。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

从这幅图中我们可以更好地看到,随着未标记数据的增加,生成问答对的训练损失函数将迅速减小。当数据量达到一定值时,损失函数下降不明显。此外,我们可以看到,rl方法优于mle方法,这主要是对抗训练的结果。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

结论

我们将在这里做一个总结。我们设计了一个半监督问答模型,该模型包含少量已标记的问答数据和大量未标记的文本数据。该模型使用生成的对抗模型,但不同之处在于我们为对抗增强训练添加了领域条件。我们使用维基百科文本和小队标签数据来训练模型,我们的结果显示当标签数据很少时,可以有高达10%的增益。

ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

最后,这个网站包含我们使用的数据。如果你感兴趣,你可以下载并使用它。谢谢大家!

雷锋。(公开号码:雷锋。人工智能科技评论。

论文下载:arxiv/pdf/1700.02206.pdf

雷锋原创文章。严禁擅自转载。详情请参考转载说明。

标题:ACL论文分享:修改生成对抗网络,训练半监督问答模型|分享总结

地址:http://www.hcsbodzyz.com/hcxw/5141.html