![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
虚假信息检测
文章平均质量分 94
无脑敲代码,bug漫天飞
这个作者很懒,什么都没留下…
展开
-
论文阅读 - Let Silence Speak: Enhancing Fake News Detection with Generated Comments from Large Language
假新闻检测在保护社交媒体用户和维护健康的新闻生态系统方面发挥着至关重要的作用。在现有的工作中,基于评论的假新闻检测方法被经验证明是有前途的,因为评论可以反映用户的意见、立场和情感,并加深模型对假新闻的理解。不幸的是,由于曝光偏差和用户不同的评论意愿,现实中获得多样化的评论并不容易,特别是对于早期检测场景。在没有获得“沉默”用户的评论的情况下,感知到的意见可能是不完整的,从而影响新闻真实性的判断。在本文中,作者探讨了寻找替代评论来源的可能性,以保证不同评论的可用性,尤其是来自沉默用户的评论。原创 2024-06-14 16:18:41 · 695 阅读 · 2 评论 -
论文阅读-DELL: Generating Reactions and Explanations for LLM-Based Misinformation Detection
大型语言模型受到事实性和幻觉方面的挑战的限制,无法直接使用现成的方法来判断新闻文章的真实性,而事实准确性是至关重要的。在这项工作中,作者提出DELL,它确定了错误信息检测的三个关键阶段,其中LLM可以作为管道的一部分纳入其中:1)LLM可以生成新闻反应来代表不同的观点并模拟用户新闻交互网络;2)LLM可以为代理任务(例如情绪、立场)生成解释,以丰富新闻文章的上下文,并培养专门从事新闻理解各个方面的专家;3)LLM可以合并特定任务的专家,并通过合并不同专家的预测和置信度得分来提供总体预测。原创 2024-06-13 17:00:34 · 998 阅读 · 0 评论 -
论文阅读-Exploring the Deceptive Power of LLM-Generated Fake News: A Study of Real-World Detection
大型语言模型(LLMs)的最新进展使得假新闻的制造成为可能,尤其是在医疗保健等复杂领域。研究凸显了LLM 生成的假新闻在有人工辅助和无人工辅助情况下的欺骗性差距,但提示技术的潜力尚未得到充分挖掘。因此,本研究旨在确定提示策略能否有效缩小这一差距。目前基于 LLM 的假新闻攻击:(1)需要人工干预信息收集,(2)缺乏详细的支持性证据,(3)无法保持上下文的一致性。因此,为了更好地了解威胁策略,作者提出了一种强假新闻攻击方法,称为条件变异自动编码器类似提示(VLPrompt)。原创 2024-05-21 19:39:29 · 1067 阅读 · 0 评论 -
论文阅读-From Creation to Clarification: ChatGPT’s Journey Through the Fake News Quagmire
作者探讨 ChatGPT 在生成、解释和检测假新闻方面的能力,具体如下。生成--采用不同的提示方法生成假新闻,并通过自我评估和人工评估证明了这些实例的高质量。解释--根据 ChatGPT 的解释获得九个特征来描述假新闻,并分析这些因素在多个公共数据集中的分布情况。检测--研究了 ChatGPT 识别假新闻的能力。作者提出了一种理由感知提示方法来提高其性能。进一步探究了可提高其检测假新闻效率的潜在额外信息。原创 2024-05-16 20:41:17 · 790 阅读 · 0 评论 -
论文阅读 - Early Detection of Fake News by Utilizing the Credibility of News
论文阅读 - Early Detection of Fake News by Utilizing the Credibility of News, Publishers, and Users Based on Weakly Supervised Learning原创 2023-02-14 10:32:03 · 508 阅读 · 2 评论 -
论文阅读-虚假信息检测综述 - Fake News Detection on Social Media: A Data Mining Perspective
论文阅读-虚假信息检测综述 - Fake News Detection on Social Media: A Data Mining Perspective原创 2023-01-03 20:48:10 · 5598 阅读 · 0 评论