本文是LLM系列文章,针对《LLM-DA: Data Augmentation via Large Language Models for
Few
摘要
尽管大型语言模型(LLM)具有令人印象深刻的功能,但它们在信息提取任务上的性能仍然不完全令人满意。然而,他们非凡的重写能力和丰富的世界知识为改进这些任务提供了宝贵的见解。在本文中,我们提出了LLM-DA,这是一种新的基于LLM的数据增强技术,用于小样本NER任务。为了克服现有数据增强方法的局限性,这些方法会损害语义完整性,并解决LLM生成文本中固有的不确定性,我们通过在上下文和实体层面增强原始数据,利用NER任务的独特特征。我们的方法包括采用14种上下文重写策略,设计相同类型的实体替换,并结合噪声注入以增强鲁棒性。大量实验证明了我们的方法在有限数据的情况下提高NER模型性能的有效性。此外,额外的分析提供了进一步的证据,支持我们生成的数据质量超过其他现有方法的断言。
1 引言
2 提出方法
3 实验设置
4 实验设置
5 相关工作
6 结论
在本文中