与Prompt-Tuning相关的受控生成

精读论文!

Posted by Andrew Zeng on March 17, 2022

Controllable Natural Language Generation with Contrastive Prefixes

如果将prefix tuning用在受控生成,最朴素的想法就是针对不同的控制方向(aspect)训练独立的prefix。而作者通过对比学习任务将这些独立训练的prefix的关系纳入考虑,从而同时训练多个prefix。 比较有启发性的工作:

  1. 将同一属性下的不同属性值的prefix训练引入对比学习,从而实现同时训练(比如不同主题的prefix引入对比学习),启发多种属性的组合泛化能否引入对比学习。
  2. 对多属性组合进行了初步的探讨,有些实验结果值得我们参考。

Method

在single-aspect control setting,作者介绍了supervised method以及unsupervised method

Supervised Method

7ca1454c66ef45a3943e2eb16a8934d2 截屏2022-03-17 下午3 16 11

Unspervised Method

unspervised method指的是,对于训练样本,只有input text x而没有attribute label y,换言之input x对应的prefix是discrete latent variable z.
截屏2022-03-17 下午3 19 36

Experiment

从实验上看,加了contrastive loss的prefix tuning比独立训练的prefix表现好得多。 b23572debea74762be9d3153816a4d8f

Muti-Aspect Control

7ae5237e60394241adec18396deb9000 该实验表明了即使简单将单aspect的prefix拼接的效果也不错,并且不同aspect的prefix拼接顺序不会影响表现。同样将单aspect的example当作部分标注的multi-aspect的example对prefix进行semi-supervised的方法的表现也很优异。 (可以启发在多属性组合中缺少部分属性标签时,采用semi-supervised learning?)

Controlling the Focus of Pretrained Language Generation Models (ACL 2022 Findings)

作者认为基于attention机制的模型虽然有用,但attention机制很难显示地控制模型的输出。比如attention如果关注到用户认为并不重要的内容,其实并没有很好的机制去修正。因此作者设计了用户可以直接在input中选择需要focus的内容,而模型生成相关output的机制。 (作者的目标并不是控制模型的attention模块,相反考虑的是实际输出)

Method

截屏2022-03-17 下午3 25 42

Experiments

在具体任务上,将模型在原始的训练集(非focus vectors)上finetune;在attribute methods标注的训练集训练focus vectors,在人工重写的验证集和测试集验证和测试。 主实验结果: aa9ddee9d643428fa1d6eac6877accf1 其中attention-offset的基线指的是直接在highlight sentence的attention weight上加hyper- parameter. 在attention上的修改的表现不如focus control,在某种程度可能佐证了attention可能不能忠实反应模型的预测结果。 其他各种消融实验比如测不同层的focus vectors的效果并不明显。

Novelty Controlled Paraphrase Generation with Retrieval Augmented Conditional Prompt Tuning

文章从整体上看是prompt tuning方法在pharahrase generation的应用,相比于原生的prompt tuning的改动不大,更像是prompting tuning的trick . 论文使用Retrial Example增强的Prompt Tuning来使预训练模型适用于paraphrase generation的任务。论文的控制性主要体现在paraphrase generation在词法上的novelty程度。

Approaches

截屏2022-03-17 下午3 32 19

Experiments

很难说prompt tuning在这里起了多重要的作用。这里的检索出example,再构成prompt template,将标签暴露给样本的方法(虽然是别的数据的标签)。在与其他baseline比较时候感觉不太公平。 a15b3df4f79246378d89ef88d994d7fd 在消融实验中,有将KNN检索改为随机选择样本,此时模型的表现与prompt tuning,prefix-tuning差别不大。