半监督文本分类的对抗训练方法

OpenAI Blog 论文

摘要

本文提出了针对文本分类的对抗训练和虚拟对抗训练方法,通过在RNN中对词嵌入而非原始输入施加扰动来实现。该方法在半监督和监督文本分类基准上取得了最先进的结果,同时降低了过拟合。

暂无内容
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/20 14:45

# 半监督文本分类的对抗训练方法 来源: https://openai.com/index/adversarial-training-methods-for-semi-supervised-text-classification/ OpenAI## 摘要 对抗训练提供了一种正则化有监督学习算法的方法,而虚拟对抗训练能够将有监督学习算法扩展到半监督设置中。然而,这两种方法都需要对输入向量的众多条目进行微小扰动,这对于诸如 one-hot 词表示这样的稀疏高维输入来说是不合适的。我们通过对循环神经网络中的词嵌入应用扰动,而不是对原始输入本身应用扰动,将对抗训练和虚拟对抗训练扩展到文本领域。所提出的方法在多个基准半监督和纯有监督任务上取得了最先进的结果。我们提供了可视化和分析,展示了学习到的词嵌入质量的提高,以及在训练过程中模型不太容易过拟合。代码可在 https://github.com/tensorflow/models/tree/master/research/adversarial_text 获取。

相似文章

通过对比预训练的文本和代码嵌入

OpenAI Blog

# 通过对比预训练的文本和代码嵌入 源:[https://openai.com/index/text-and-code-embeddings-by-contrastive-pre-training/](https://openai.com/index/text-and-code-embeddings-by-contrastive-pre-training/) ## 摘要 文本嵌入是许多应用中的有用特征,例如语义搜索和计算文本相似性。以往的工作通常训练针对不同用例定制的模型,在数据集选择、训练目标和模型架构方面各不相同。在这

大型语言模型的信息论对抗训练

arXiv cs.LG

本文介绍了 WARDEN,一种用于大型语言模型的分布鲁棒对抗训练框架。该框架利用 f-散度动态调整对抗样本的权重,在显著降低攻击成功率的同时保持了计算效率。

随机分词法提高模型鲁棒性

arXiv cs.CL

本论文证明了使用随机分词而非确定性标准分词来训练大型语言模型,可以显著提升模型对对抗攻击和随机扰动的鲁棒性。这种改进在预训练、微调和上下文学习阶段都有表现,且不会增加推理成本。

神经网络策略的对抗性攻击

OpenAI Blog

OpenAI 研究人员展示了对抗性攻击(先前在计算机视觉中研究过)对强化学习中的神经网络策略也同样有效,即使在白盒和黑盒设置中进行微小的难以察觉的扰动也会导致显著的性能下降。