本文是LLM系列文章,针对《What Does the Bot Say? Opportunities and Risks of Large Language
Models in Social Media Bot Detection》的翻译。
摘要
社交媒体机器人检测一直是机器学习机器人检测器的进步和逃避检测的对抗性机器人策略之间的军备竞赛。在这项工作中,我们通过调查最先进的大型语言模型(LLM)在社交机器人检测中的机会和风险,将军备竞赛提升到了一个新的水平。为了研究这些机会,我们设计了一种新的基于LLM的机器人检测器,提出了一个异构专家的混合框架来划分和征服不同的用户信息模式。为了阐明风险,我们探讨了LLM引导下操纵用户文本和结构化信息以逃避检测的可能性。在两个数据集上对三个LLM进行的广泛实验表明,仅对1000个注释示例进行的指令调整就产生了专门的LLM,在这两个数据集中,其性能都优于最先进的基线高达9.1%,而LLM引导的操作策略可能会使现有机器人检测器的性能显著下降29.6%,并损害机器人检测系统的校准和可靠性。
1 引言
2 方法
3 实验设置
4 结果
5 分析
6 相关工作
7 结论
我们建议调查LLM在社交媒体机器人检测中的机会和风险。作为有希望的机会,我们提出了一个混合异构专家框架,通过上下文学习或指令调整将LLM用于机器人检测。作为有形风险,我们提出了基于文本和图形的策略,在LLM的帮助下操纵机器人账户