自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(34)
  • 收藏
  • 关注

原创 (MLLMs)多模态大模型论文分享(1)

多模态模型结合了多种数据类型,包括图像、文本、音频等。传统的大型语言模型(LLM)主要训练和应用于文本数据,但它们在理解其他数据类型方面有局限性。纯文本LLM,如GPT-3, BERT和RoBERTa,在文本生成和编码等任务中表现出色,但它们缺乏对其他数据类型的全面理解和处理。为了解决这个问题,多模态LLM集成了多种数据类型,克服了纯文本模型的限制,并为处理不同数据类型开辟了可能性。GPT-4是多模态LLM的一个很好的例子。它可以接受图像和文本形式的输入,并在各种基准测试中展示了人类水平的性能。

2024-07-19 11:25:31 29

原创 假新闻检测论文分享(27)Adapting Fake News Detection to the Era of Large Language Models

以前,当生成式人工智能还不太流行的时候,可以合理地假设大多数自动生成的新闻文章主要被恶意行为者用来制造假新闻。然而,随着生成式AI在过去两年的显著进步,以及它们在我们生活的各个方面的引入,这些工具现在被广泛用于合法的目的,例如帮助记者进行内容创作。例如,著名的新闻机构使用人工智能起草或增强他们的文章(Hanley和Durumeric, 2023)。然而,人工撰写假新闻的老问题仍然存在。

2024-07-17 11:23:20 190

原创 假新闻检测论文分享(26)@2022AAAI BMR#Bootstrapping Multi-view Representations for Fake News Detection

许多现有的多模态FND(假新闻检测)方案使用文本和视觉特征作为集成表示。然而,从不同的观点对特征的解纠缠还没有得到彻底的研究。在许多情况下,模型处于黑盒级别,其中网络设计不能明确地突出最有贡献的组件此外,最近的许多研究仅依靠跨模态相关来生成融合特征,但作者认为跨模态相关性不一定起关键作用。因此,明确单模态和跨模态特征的作用对于改善FND至关重要。针对这些问题,作者提出了一种基于bootstrap多视图表示(bootstrap Multi-view representation, BMR)的假新闻检测方案。

2024-07-02 21:52:24 30

原创 假新闻检测论文分享(25)L-DefenseExplainable Fake News Detection With Large Language Model

现有的假新闻检测工作主要集中在通过深度网络结合多种信息来学习假新闻的潜在特征,如可信度、立场、传播模式、额外知识、域外数据等。尽管他们在探测上取得了成功,但受限于他们的黑箱性质,他们无法提供任何对公众至关重要的理由。为解决这一问题,一些研究致力于可解释假新闻检测(EFND),旨在同时生成准确性预测和解释。许多工作通过注意力机制在相关报道中注意突出特别的单词、短语或句子来提供可解释性。然而,这些工作只发现了对最终预测有高贡献的区域,缺乏直观和可信的解释。

2024-06-09 20:17:46 56

原创 假新闻检测论文(24)A comprehensive survey of multimodal fake news detection techniques...

虚假或误导性新闻,或“假新闻”,是任何捏造或故意欺骗的媒体内容。它可以被利用来操纵公众情绪,传播错误信息,甚至干预政治选举。它的主要目的是扭曲、欺骗或操纵个人的信仰和观点。虚假信息在媒体上传播的形式多种多样,包括讽刺、谣言、点击诱饵、错误信息等。讽刺作品通常充满幽默,用来强调特定问题的突出点,经常被用来批判社会和政治动态。谣言是指无效的叙述或断言,通常以流言蜚语的形式流传。点击诱饵由标题或标题组成,旨在通过“点击”来吸引注意力和激发用户互动。这些活动的特点往往是哗众取宠,缺乏经验支持。

2024-05-25 21:37:06 95

原创 假新闻检测论文分享(23)(ALB-MCF#2022IEEE)Using ALBERT and Multi-modal Circulant Fusion for Fake News Detection

首先,现有研究一般采用预训练模型BERT提取文本特征,但BERT模型参数较多,训练速度相对较慢。此外,视觉特征和文本特征处于不同的语义特征空间,存在异质性。目前的方法只是对文本和图像特征进行简单的拼接操作,可能无法更好地利用多模态数据互补的优势,并且存在冗余,影响检测性能。该文提出了ALB-MCF,将ALBERT和多模态循环融合用于假新闻检测。首先,创新性地使用ALBERT模型提取文本特征优于BERT模型;其次,利用MCF融合两模态之间的特征;

2024-04-10 20:32:42 95

原创 假新闻检测论文分享(22)Multi-modal Fake News Detection on Social Media via Multi-grained Information Fusion

在本文中,提出了一种新的多模态假新闻检测方法MMFN,该方法使用BERT和Swin- T结合Transformer获得细粒度多模态特征,使用CLIP获得粗粒度多模态特征。此外,还引入了带有CLIP相似度加权的单模态分支来自适应辅助多模态分类。

2024-02-26 12:23:56 263 8

原创 假新闻检测论文分享(21)(EM-FEND)Improving Fake News Detection by Using an Entity-enhanced

它们大多只是将图像的基本语义作为文本的补充进行初步建模,忽略了多模态假新闻的特点。具体来说,一些先前的技术通过简单地将文本特征与从ImageNet上预训练的VGG19提取的视觉特征连接起来来获得多模态表示。多模态信息融合的多模态数据异构性。目前的工作主要集中在通过预训练的VGG19或Faster R-CNN对新闻图像的一般对象进行处理,而新闻文本则是基于命名实体的更抽象的语义层次1。由于这种语义鸿沟,目前的工作难以有效地在文本和图像之间进行推理,以利用多模态线索。

2024-02-23 18:43:41 143

原创 假新闻检测论文分享(20)Multimodal fake news detection on social media: a survey of deep learning techniques

假新闻:假新闻一词可以有不同的表述形式:(1)misinformation,指无特定理由生产的虚假内容;(2)disinformation,指因特定原因产生的虚假内容;(3)malinformation,指基于事实,但被故意曲解、篡改或以误导性方式呈现的信息,以误导接收者或故意制作虚假内容以危害他人的信息。早期关于假新闻检测话题的工作仅依赖于文本内容。无论如何,即使为了获得检测错误信息的良好指标,分析新闻内容无疑是必要的,但很明显,仅进行文本分析是不够的。

2024-01-23 10:08:46 240

原创 假新闻检测论文分享(19)(22ACL#NEP)Zoom Out and Observe: News Environment Perception for Fake News Detection

大多数现有的基于传播的假新闻检测方法,一方面通过检查用户对帖子的回复研究帖子之间的关系或上下文语境之间的联系,以发现更丰富的帖子级别的信息,另一方面或通过验证知识来源的声明。然而,这些方法忽略了假新闻帖子产生和传播的外部新闻环境。由于假新闻只有广泛曝光和病毒式传播才能获得任何收益,因此假新闻创作者会在最近发布的新闻背景(环境)中精心设计如何提高帖子的知名度和吸引受众的注意力。这种有意的设计将假新闻与其相关的新闻环境联系起来,因此作者认为,可能会从新闻环境中找到有用的检测信息,从而更好地表征和检测假新闻。

2024-01-20 16:35:54 452

原创 假新闻检测论文分享(18)(FTT)Learn over Past, Evolve for Future:Forecasting Temporal Trends for Fake News Dete

在过去的十年里,大多数假新闻检测研究人员都遵循一种传统的模式,即收集一个固定的数据集,然后随机地将其分为训练集和测试集。然而,新闻数据子集是独立和相同分布的假设在实际场景中往往不成立。在实践中,假新闻检测模型是在当前时间段之前收集的离线数据上进行训练的,但需要在即将到来的时间段内检测新到达的在线数据中的假新闻。由于新闻的快速演变性质,新闻的分布可能会随着时间而变化,即时间(域)偏移(temporal shift)1,2,导致离线和在线数据的分布差异。

2023-11-27 11:41:07 1021

原创 假新闻检测论文分享(17)CAFE(Cross-modal Ambiguity Learning for Multimodal Fake NewsDetection)

本文首先从信息论的角度对跨模态歧义性学习问题进行形式化描述,利用不同单模态特征之间的分布散度量化其歧义性;然后,提出了一种模糊度感知的多模态假新闻检测方法CAFE。CAFE通过自适应地聚合单模态特征和跨模态关联,即在跨模态歧义性较弱时依赖单模态特征,在跨模态歧义性较强时参考跨模态关联,从而提高假新闻检测精度。提出了跨模态歧义学习问题,这是多模态假新闻检测的一个关键挑战,并提出了一种基于KL散度的方法,通过估计其特征分布的散度来量化文本和图像之间的歧义。

2023-11-08 16:15:31 733 3

原创 假新闻检测论文分享(16)(KMGCN)Fake News Detection via Knowledge-driven Multimodal Graph Convolutional Networks

社交媒体网站助长了各种假新闻,其中通常包含虚假甚至伪造的多媒体内容,以误导读者,迅速传播,因此,有必要和迫切地需要使用自动检测器,以防止假新闻造成严重的负面影响,使用户获得真实的信息。假新闻检测任务可以定义为一个二元分类问题,旨在将社交媒体上的声明分类为假新闻或非假新闻。在社交媒体假新闻检测社区中有两种类型的声明:帖子级(post)工作识别社交媒体的一个帖子是否为假新闻,而事件级(event)工作对构成事件的一组帖子进行假新闻检测。模型的目标是在post级别上识别一个帖子是否是假的。

2023-10-19 09:46:11 263

原创 实体关系抽取方法总结

从二元关系抽取到多元关系抽取的转化开放领域的实体关系抽取的深入研究远程监督关系抽取方法的改进深度学习有监督方法的性能提升工业级实体关系抽取系统的继续研发。

2023-10-06 11:22:20 1700

原创 假新闻检测论文分享(15)MCNN(Detecting fake news by exploring the consistency of multimodaldata)

近期的许多研究都表明,假新闻的传播不再依赖单一的文本模式,更多的假新闻可能会出现在各种数据模式中,如文本、图片和视频。它是多媒体的集合,这意味着很难从单模数据中检测假消息。目前的假新闻检测方法要么基于单模态数据,要么合并两种类型的数据(Ma et al., 2016;马、高、王,2019)。这些方法忽略了各种模态的有效建模和多模态数据之间的相似性(TI-CNN;SAFE)。因此,不可能深入挖掘假新闻的内在特征(如图像篡改、图像不一致等)。

2023-09-26 17:12:11 649 1

原创 假新闻检测论文分享(14)(2020KDD)SAFE: Similarity-Aware Multi-modal Fake News Detection

最近,对假新闻的有效检测引起了人们的极大关注。目前的研究在预测假新闻方面做出了重大贡献,但对利用新闻文章中文本信息和视觉信息之间的关系(相似性)的关注较少。重视这种相似性有助于识别虚假新闻报道,例如,试图使用不相关的图片来吸引读者的注意力。在这项工作中,我们提出了一种相似感知假新闻检测方法(SAFE),该方法研究新闻文章的多模态(文本和视觉)信息。首先,采用神经网络分别提取文本特征和视觉特征进行新闻表示。我们进一步研究了跨模态提取的特征之间的关系。

2023-09-17 17:41:13 721 1

原创 假新闻检测论文分享(13)(MVNN)Exploiting Multi-domain Visual Information for Fake News Detection

根据现有的研究,假新闻图片(fake-news images,假新闻帖子中附带的图像)不仅包括被恶意篡改的假图像,还包括被错误地用于表示无关事件的真实图像。将假新闻图像大致分为两类:篡改图像和误导图像。篡改图像是指经过数字修改的假新闻图像,如图1a所示,即通常意义上的假图像。误导性图片是指没有经过任何处理,但内容具有误导性的虚假新闻图片,如图1b所示。这些误导性的图像通常来自艺术品或过时的图像,这些图像是在早期事件上发布的。

2023-09-12 17:32:49 386

原创 假新闻检测论文分享(12)MVAE: Multimodal Variational Autoencoder for Fake News Detection

最近在深度学习领域检测假新闻的工作[26],由于其提取相关特征的能力增强,性能比传统方法有所提高。Jin等人[9]结合视觉、文本和社会上下文特征,使用注意力机制对假新闻进行预测。Wang et al.[26]使用一个额外的事件判别器来学习所有事件之间共享的公共特征,目的是消除不可转移的事件特定特征,并声称它们可以更好地处理新颖和新出现的事件。现有模型的一个缺点是它们没有任何明确的目标函数来发现模态之间的相关性。本文工作受自动编码器想法的启发,试图在多模态环境中学习共享表示。

2023-08-22 09:37:37 601 1

原创 谣言检测论文分享(11)Multimodal Fusion with Recurrent Neural Networks for Rumor Detection on Microblogs

与文本相比,图像更能描绘视觉内容,因而更能引起人们的注意。凭借丰富的视觉信息,它们也有助于区分谣言。现有的谣言自动检测方法大多是基于文本和社会语境的。基于分类的方法[7,16,31]和基于图的优化方法[10,13,14]被用于基于人工制作的文本和社会上下文特征来验证在线文本帖子的真假。最近只有少数研究首次尝试基于多媒体内容来检测谣言[9,15,16]。这些作品中使用的视觉特征也是手工制作的,这些特征基本上通过特征拼接(早期融合)或平均结果(晚期融合)与现有特征融合。

2023-08-13 09:14:32 596 4

原创 假新闻检测论文分享(十)EANN: Event Adversarial Neural Networks for Multi-Modal Fake News Detection

现有的深度学习模型在不同事件的验证文章数量充足的情况下,凭借其优越的特征提取能力,取得了比传统模型更好的性能提升。然而,它们仍然无法应对假新闻检测的独特挑战,即在新出现的、时间关键事件上检测假新闻[27]。由于缺乏相应的先验知识,此类事件的验证帖子难以及时获取,导致现有模型的性能不理想。实际上,现有的模型往往会捕获大量特定于事件的特征,而这些特征在不同事件之间并不共享。此类特定于事件的特征虽然能够帮助对已验证事件的帖子进行分类,但会影响对新出现事件的检测。

2023-06-29 17:11:11 1296 1

原创 谣言检测论文分享(九)LIAR数据集

POLITIFACT.COM上收集了长达十年的12.8K的各种语境下的人工标记简短语句,该网站为每个案例提供了详细的分析报告和源文档链接包括12,836个简短陈述,根据真实性、主题、上下文/地点、演讲者、州、政党和之前的历史进行标记。具有如此大的容量和十年的时间跨度,说谎者比目前可用的资源要大一个数量级(Vlachos和Riedel, 2014;Ferreira和Vlachos, 2016)的相似类型。

2023-06-14 10:27:03 951 5

原创 谣言检测论文分享(八)A Survey on Fake News and Rumour Detection Techniques

主要介绍开展谣言检测或假新闻检测的背景和研究意义。社交媒体在新闻传播中具有突出作用。一方面新闻记者可能会利用社交媒体报道公众对突发新闻事件的看法,甚至发现潜在的新故事;另一方面,公民可能会通过官方渠道(即新闻机构在社交媒体平台上的官方账号)或通过自己的网络(如朋友、家人、公众人物)的帖子来关注突发新闻和事件的发展。然而对帖子缺乏控制和事实核查使社交媒体成为传播未经证实和/或虚假信息的沃土[111]。人们经常发布或分享他人的帖子,既不验证消息来源,也不验证信息的有效性和可靠性。

2023-06-05 22:55:34 1113

原创 谣言检测论文分享(七)A Survey on Natural Language Processing for Fake News Detection

首先揭示了自动假新闻检测的重要性和定义。然后比较和讨论了最新的基准数据集和不同方法的实验结果。在此基础上,该文对未来的假新闻检测数据集提出了新的建议,并对未来的假新闻检测模型提出了以下建议:研究手工特征是否可以与神经网络模型结合、非文本数据的合理使用以及扩展基于内容的验证方式。

2023-06-01 09:51:09 520

原创 谣言检测论文分享(六)(基于监督学习的特征方法信息可信度)Information Credibility on Twitter

本文专注于评估给定tweet集可信度的自动方法,主要目标是确定是否可以自动评估Twitter上发布的内容的可信度水平。我们的主要假设是,在社交媒体环境本身存在可用的信号,使用户能够评估信息的可信性。在这种情况下,们将社交媒体可信度定义为信息可信度的方面,可以仅使用社交媒体平台中可用的信息进行评估本文方法是基于监督学习的,

2023-05-22 11:39:04 244

原创 谣言检测论文分享(五) Fake News Detection via Knowledge-driven Multimodal Graph Convolutional Networks(KMGCN)

社交媒体网站助长了各种假新闻,其中通常包含虚假甚至伪造的多媒体内容,以误导读者,迅速传播,因此,有必要和迫切地需要使用自动检测器,以防止假新闻造成严重的负面影响,使用户获得真实的信息。假新闻检测任务可以定义为一个二元分类问题,旨在将社交媒体上的声明分类为假新闻或非假新闻。在社交媒体假新闻检测社区中有两种类型的声明:帖子级(post)工作识别社交媒体的一个帖子是否为假新闻,而事件级(event)工作对构成事件的一组帖子进行假新闻检测。模型的目标是在post级别上识别一个帖子是否是假的。

2023-05-21 16:46:21 830 5

原创 自动谣言检测综述分享——Automatic Rumor Detection on Microblogs: A Survey

谣言的传统定义来源于社会心理学[27]。也就是说,谣言是一种未经证实的说法,广泛传播,其真实价值未经证实或故意虚假。在这个定义下,一般的谣言被认为是一条信息,其真实性未经验证。未经证实的谣言是指未经权威或可信来源官方证实的信息,例如权威新闻机构或现场目击者。一般的谣言包括客观谣言和主观谣言。在不同的场景中,最好采用不同的定义。在社交媒体上,一般谣言经常被用来监控公众对争议事件的看法[28]。一般的谣言可能是名人的八卦,也可能是一种诽谤政治对手的竞选策略[4],它吸引人们传播故事,而不是查明其真实性。

2023-05-21 16:43:55 2417 2

原创 谣言检测论文分享(四)

社交媒体网站助长了各种假新闻,其中通常包含虚假甚至伪造的多媒体内容,以误导读者,迅速传播,因此,有必要和迫切地需要使用自动检测器,以防止假新闻造成严重的负面影响,使用户获得真实的信息。假新闻检测任务可以定义为一个二元分类问题,旨在将社交媒体上的声明分类为假新闻或非假新闻。在社交媒体假新闻检测社区中有两种类型的声明:帖子级(post)工作识别社交媒体的一个帖子是否为假新闻,而事件级(event)工作对构成事件的一组帖子进行假新闻检测。模型的目标是在post级别上识别一个帖子是否是假的。

2023-04-14 09:48:54 842

原创 ChatGPT推出后,立场检测技术将如何发展?

立场检测是指在给定文本中提取对目标的立场(支持、反对或都不支持)的任务。随着社交媒体内容的扩散,这类研究受到了越来越多的关注。传统的立场检测框架是将其转化为文本分类任务。在解决此类问题方面,深度学习模型已经取代了基于规则的模型和传统的机器学习模型。当前的深度神经网络面临着社交媒体帖子中标注数据和信息不足以及深度学习模型难以解释的两个主要挑战。一个新的预训练语言模型chatGPT于2022年11月30日发布。

2023-03-28 11:21:38 3839 1

原创 不做中国的ChatGPT,要做世界的文心一言

建国以来,我们大多数领域的科学研究都是从无到有,由弱向强。我们应该庆幸,在我国步入创新型国家行列,在少数科研领域已经进行世界领先地位后,当代中国学者,依然向老一辈科学家一样,有着“咬定青山不放松”的科研态度,明知道我们的科学成果在国外甚至在不少国人眼中看起来尽管非常幼稚,却依然坚持做下去。就在GPT4发布后一天,百度也发布自研的全新一代知识增强大语言模型——文心一言,按照官方的说法,这是文心大模型家族的新成员,能够与人对话互动,回答问题,协助创作,高效便捷地帮助人们获取信息、知识和灵感。

2023-03-28 10:24:16 58

原创 谣言检测论文分享(一)

传统方法:主要采用用户特征、文本内容和传播模式等手工特征来训练有监督的分类器。如,决策树,随机森林,SVM等。然而,这些方法主要依赖于特征工程,非常耗时耗力。此外,这些手工设计的特征通常缺乏从谣言传播和散布过程中提取的更高层的表示。近期研究:利用了深度学习方法,从传播路径/树或网络中挖掘高级表示来识别谣言。许多深度学习模型,如长短期记忆(LSTM)、门控递归单元(GRU)和递归神经网络(RvNN)被使用,因为它们能够从谣言的时间传播中学习顺序特征。

2023-03-26 21:42:32 1625 1

原创 谣言检测论文分享(三)

分析表明,如果谣言是假的,人们往往会停止传播(Zubiaga et al., 2016b)。然而,识别这些虚假信息并非易事,需要新闻调查对可疑声明进行事实核查,这是一项劳动密集型和耗时的工作。社交媒体的泛滥使信息负荷和动态性不断增加,使情况变得更糟。因此,需要开发自动化和辅助的方法以方便实时的谣言追踪和揭穿。为了自动化谣言检测,之前的研究大多集中在基于特征工程的监督模型从序列微博流中进行文本挖掘(Castillo et al., 2011;Kwon等人,2013;刘等,2015;

2023-03-26 21:31:44 1111 1

原创 谣言检测论文(二)

动态信息传播结构动态图卷积网络融合时序模块进行谣言检测

2023-03-21 09:16:50 1066

原创 情感分析(挖掘观点、情感和情绪)阅读笔记(二)

情感分析(刘兵)阅读笔记(二)(结合原著,绝不照搬)

2023-03-06 10:36:24 326

原创 情感分析(挖掘观点、情感和情绪)阅读笔记(一)

情感分析(刘兵)阅读笔记系列

2023-02-18 17:08:27 630

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除