本文是LLM系列文章,针对《Can Large Language Models Detect Rumors on Social Media?》的翻译。
摘要
在这项工作中,我们研究了使用大型语言模型(LLM)在社交媒体上进行谣言检测。然而,LLM很难对包含新闻内容和大量评论的社交媒体上的整个传播信息进行推理,因为LLM可能不会专注于复杂传播信息中的关键线索,并且在面对大量冗余信息时难以推理。因此,我们提出了一种LLM赋能的谣言检测(LeRuD)方法,在该方法中,我们设计提示,教LLM对新闻和评论中的重要线索进行推理,并将整个传播信息划分为传播链,以减轻LLM的负担。我们在Twitter和微博数据集上进行了广泛的实验,LeRuD的性能比几种最先进的谣言检测模型好3.2%到7.7%。同时,通过应用LLM,LeRuD不需要任何数据来进行训练,因此在小样本或零样本场景中显示出更有前景的谣言检测能力。
1 引言
2 相关工作
3 方法
4 实验
5 结论
在本文中,我们研究了将LLM用于社交媒体上的谣言检测,并提出了一种称为LeRuD的新方法。LeRuD设计了适当的提示,教LLM对新闻和评论中的重要线索进行推理。同时,我们将一条新闻的整个传播信息划分为一个传播链,引导LLM以每次合理的信息量逐步进行推理。然后,我们用广泛使用的GPT 3.5实现了LeRud,并在Twitter和微博数据集上进行了广泛的实验。LeRud可以以较大的