一种不怎么novel的攻击方法
self:
1.rank word importance是重要的
2.替换词选择语义相仿的
3.越是困难的下游任务,越是strong的模型·,生成的攻击样本质量越高
论文笔记(5.17,文本抗击,word)--Is BERT Really Robust? A Strong Baseline for Natural Language Attack on Text
最新推荐文章于 2022-07-13 16:23:09 发布
一种不怎么novel的攻击方法
self:
1.rank word importance是重要的
2.替换词选择语义相仿的
3.越是困难的下游任务,越是strong的模型·,生成的攻击样本质量越高