自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

qq_40671063的博客

努力学习的渣渣

  • 博客(281)
  • 资源 (5)
  • 收藏
  • 关注

原创 论文阅读-Exploring the Deceptive Power of LLM-Generated Fake News: A Study of Real-World Detection

大型语言模型(LLMs)的最新进展使得假新闻的制造成为可能,尤其是在医疗保健等复杂领域。研究凸显了LLM 生成的假新闻在有人工辅助和无人工辅助情况下的欺骗性差距,但提示技术的潜力尚未得到充分挖掘。因此,本研究旨在确定提示策略能否有效缩小这一差距。目前基于 LLM 的假新闻攻击:(1)需要人工干预信息收集,(2)缺乏详细的支持性证据,(3)无法保持上下文的一致性。因此,为了更好地了解威胁策略,作者提出了一种强假新闻攻击方法,称为条件变异自动编码器类似提示(VLPrompt)。

2024-05-21 19:39:29 914

原创 论文阅读-Language Evolution for Evading Social Media Regulation via LLM-based Multi-agent Simulation

推特(Twitter)、Reddit 和新浪微博等社交媒体平台在全球交流中发挥着至关重要的作用,但在地缘政治敏感地区却经常遭遇严格的监管。这种情况促使用户巧妙地改变他们的交流方式,在这些受管制的社交媒体环境中经常使用编码语言。这种交流方式的转变不仅仅是一种对抗监管的策略,更是语言进化的生动体现,展示了语言是如何在社会和技术压力下自然演变的。研究受监管社交媒体语境中的语言演变对于确保言论自由、优化内容审核和推进语言学研究具有重要意义。本文提出了一种使用大型语言模型(LLM)的多代理模拟框架,以。

2024-05-17 21:24:21 718

原创 论文阅读- GPT-generated Text Detection: Benchmark Dataset and Tensor-based Detection Method

在本文中,作者介绍了 GPT Reddit 数据集(GRiD),这是一个由Generative Pretrained Transformer ((GPT)生成的新型文本检测数据集,旨在评估检测模型在识别ChatGPT 生成的回复方面的性能。该数据集由基于 Reddit 的各种上下文-提示对组成,其中既有人工生成的回复,也有ChatGPT 生成的回复。作者对数据集的特点进行了分析,包括语言多样性、上下文复杂性和回复质量。为了展示该数据集的实用性,在该数据集上对几种检测方法进行了基准测试,证明了。

2024-05-16 21:58:23 853 1

原创 论文阅读-From Creation to Clarification: ChatGPT’s Journey Through the Fake News Quagmire

作者探讨 ChatGPT 在生成、解释和检测假新闻方面的能力,具体如下。生成--采用不同的提示方法生成假新闻,并通过自我评估和人工评估证明了这些实例的高质量。解释--根据 ChatGPT 的解释获得九个特征来描述假新闻,并分析这些因素在多个公共数据集中的分布情况。检测--研究了 ChatGPT 识别假新闻的能力。作者提出了一种理由感知提示方法来提高其性能。进一步探究了可提高其检测假新闻效率的潜在额外信息。

2024-05-16 20:41:17 716

原创 论文阅读- Stylometric Detection of AI-Generated Text inTwitter Timelines

预训练语言模型的最新进展为大规模生成类人文本提供了方便的方法。尽管这些生成能力在突破性应用方面具有巨大潜力,但它也可能成为对手生成错误信息的工具。特别是,像推特这样的社交媒体平台非常容易受到人工智能产生的错误信息的影响。一个潜在的威胁场景是当对手劫持了一个可信的用户帐户,并在公司内部使用自然语言生成器来生成错误信息。这种威胁需要在给定用户的推特时间轴上对人工智能生成的推文进行自动检测器。然而,推文本身就很短,因此,

2024-05-16 16:38:37 967 1

原创 论文阅读 - Anatomy of an AI-powered malicious social botnet

大型语言模型(LLM)在生成跨不同主题的真实文本方面表现出令人印象深刻的能力。人们担心它们可能被用来制作具有欺骗性意图的虚假内容,尽管迄今为止的证据仍然是轶事。本文介绍了一个关于 Twitter 僵尸网络的案例研究,该僵尸网络似乎利用 ChatGPT 来生成类似人类的内容。通过启发式方法,作者识别了1,140 个帐户并通过手动注释对其进行验证。这些帐户形成了密集的虚假角色集群,这些角色表现出类似的行为,包括发布机器生成的内容和窃取的图像,并通过回复和转发相互互动。ChatGPT 生成的内容会。

2024-05-15 16:00:04 1006

原创 jinja2常用基本语法

FileSystemLoader中传入的是文件夹的名称,可以传入多个文件夹名称,该类会自动查找其路径。使用了 {% include 'port_conf.sub.conf.tpl' -%}data为list时,模板中可用data.0取第一个值'1.1.1.1'jinja2模板使用if 条件判断。传参数到jinja2模板文件。jinja2模板使用for循环。include导入其他模板。jinja2模板使用过滤器。jinja2模块化的模板。加载jinja2的模板。jinja2 模板继承。将渲染的模板写入文件。

2024-04-16 22:50:34 347

原创 python中的@classmethod

类方法是通过类本身来调用的,而不是通过类的实例来调用。类方法接收的第一个参数是类本身(通常命名为。使用类方法作为工厂函数,可以隐藏对象的创建细节,并在创建对象时执行一些额外的逻辑.由于类方法接收的是类本身作为第一个参数,因此它们可以用于修改类级别的状态或属性。都是类方法,它们分别用于设置和获取类级别的变量。是一个装饰器,用于指示一个方法是一个类方法;是一个类方法,用作工厂函数来创建类的实例。方法内部调用了类的构造函数。),而不是类的实例。

2024-04-16 20:34:26 143

原创 推特社交机器人分类

机器人系统地产生支持候选人的更积极的内容,这一事实可能会使接触到这些内容的个人对这些内容的看法产生偏见,这表明存在对特定候选人的有机支持,而实际上这都是人为产生的。然而,每当这位政治候选人从他的官方账户发布一条新推文时,所有自动账户都会在短短几分钟内转发这条推文。最后,机器人更多地是在宣传无害的政治事件,而不是攻击对手或传播错误信息。社交机器人的一个子集被赋予明显的政治任务,政治机器人的使用因政权类型而异。非常容易识别的机器人,它们是自我声明的机器人,其程序员无意隐藏其本质.机器人有不同的种类。

2024-03-27 17:20:10 652

原创 每周论文4-周三-机器人检测攻击-My Brother Helps Me: Node Injection Based Adversarial Attackon Social Bot Detection

像Twitter这样的社交平台正受到大量欺诈用户的围攻。由于社交网络的结构,大多数方法都是基于图神经网络(GNN),容易受到攻击。在这项研究中,作者提出了一种基于节点注入的对抗攻击方法,旨在欺骗机器人检测模型。值得注意的是,当在目标bot周围添加新bot时,目标bot和新注入的bot都无法被检测到。这种攻击以黑盒方式进行,这意味着与受害者模型相关的任何信息都是未知的。这是第一个通过图节点注入来探索机器人检测弹性的研究作者还开发了一个属性恢复模块,将注入的节点嵌入从图嵌入空间恢复到原始特征空间。

2024-03-22 11:40:29 687

原创 每周论文3-周四-多个agent构建 LLM 应用程序-AutoGen: Enabling Next-Gen LLM Applications via Multi-Agent Conversation

AutoGen是一个开源框架,允许开发人员通过多个代理构建LLM应用程序,这些代理可以相互交谈以完成任务。AutoGen代理是可定制的、可对话的,并且可以在使用llm、人工输入和工具组合的各种模式下操作.AutoGen在AutoGen中,开发人员还可以灵活地定义代理交互行为。自然语言和计算机代码都可以用来为不同的应用程序编写灵活的会话模式。AutoGen应用于不同的案例研究:AutoGen作为一个通用框架,用于构建各种复杂性和LLM能力的各种应用程序。实证研究。

2024-03-21 21:38:33 955

原创 Claude3介绍

Anthropic这家由OpenAI分裂出去的兄弟公司,悄无声息地、低调地将Claude3推出了Claude系列包括三种最先进的模型,按能力升序排列:Opus 大概意思就是史诗级乐章,牛逼上天那种。Sonnet 是十四行诗。Haiku 是俳句,日本的那种三行短诗。每个连续的模型提供越来越强大的性能,允许用户选择智能,速度和成本的最佳平衡为他们的特定应用。Opus and Sonnet现在可以在claude中使用。Claude API,目前在159个国家普遍可用。Haiku很快就会发布。

2024-03-19 14:17:37 937

原创 每周论文4-周一- MMoE: Robust Spoiler Detection with Multi-modal Information andDomain-aware Mixture-of-Ex

在线电影评论网站对电影的信息和讨论很有价值。然而,大量的剧透评论影响了观影体验,使得剧透检测成为一项重要任务。以往的方法仅仅关注评论的文本内容,忽略了平台中信息的异质性。例如,评论的元数据和相应的用户信息可能是有用的。此外,电影评论的剧透语言倾向于特定类型,从而对现有方法提出了领域泛化的挑战。作者提出MMoE是一种多模态网络,利用多模态信息实现鲁棒剧透检测,并采用Mixtureof-Experts增强领域泛化。MMoE首先分别从用户-电影网络、评论的文本内容和评论的元数据中提取图、文本和元特征。

2024-03-18 23:17:17 765

原创 每周论文2-周四-社交网络多智能体工作-Social-network Simulation System withLarge Language Model-Empowered Agents

利用大型语言模型(llm)在感知、推理和行为方面的类人能力,并利用这些特性构建S3系统(简称社交网络仿真系统)。采用微调和提示工程技术来确保代理的行为与社会网络中真实的人的行为密切相关。情感、态度和互动行为。通过赋予系统中的代理感知信息环境和模仿人类行为的能力,观察到人口水平现象的出现,包括信息、态度和情绪的传播。进行了一个评估,包括两个层次的模拟(性别歧视和核能),采用现实世界的社会网络数据。结果显示了良好的准确性。这项工作代表了由基于llm的代理授权的社会网络模拟领域的第一步。

2024-03-08 23:20:07 1158

原创 每周论文2-周三-基于LLM的多智能体工作综述-Large Language Model based Multi-Agents: A Survey of Progress and Challenges

由于LLM令人印象深刻的规划和推理能力,它们被用作自主代理来自动完成许多任务。基于LLM的多代理系统在复杂问题解决和世界模拟方面取得了进步。(基于llm的多代理模拟哪些域和环境?(这些代理人是如何被描述的,他们又是如何交流的?(什么机制促进了代理人能力的增长?该文章总结了常用的数据集或基准,以便访问。

2024-03-06 23:10:13 1178

原创 每周论文1:What Does the Bot Say? Opportunities and Risks of Large LanguageModels in Social Media Bot

动机:调研最先进的与原模型在社交机器人检测上的机会与危害;方法:设计了基于LLM的机器人检测器,通过利用混合异质专家“mixture-of-hetergeneous-experts”架构去划分和征服何种用户模态信息。说明LLM对检测的危害:探索了LLM操作用户文本和结构信息来避免被检测到的概率。实验:机会:在1000个注释案例上的指令调整产生专业的LLM应用于检测,其性能便优于最新的方法9.1%。危害:LLM指导的操纵策略给现有的机器人检测器带来29.6%的性能下降。

2024-02-27 22:30:47 985

原创 论文阅读 - HOFA: Twitter Bot Detection with Homophily-Oriented Augmentation and Frequency Adaptive Atten

Twitter 机器人检测已成为一项日益重要和具有挑战性的任务,以打击在线虚假信息,促进社会内容审查,并维护社会平台的完整性。虽然现有的基于图表的 Twitter 机器人检测方法取得了最先进的性能,但它们都是基于同质性假设的,即假设拥有相同标签的用户更有可能被连接,这使得 Twitter 机器人很容易通过跟踪大量真实用户来伪装自己。为了解决这个问题,我们提出了 HOFA,一种新的基于图形的 Twitter 机器人检测框架,它使用面向同质性的图形增强模块(Homo-Aug)和。

2024-02-06 10:27:58 1271

原创 IJCAI2024

在重新提交的情况下,如果以前版本的文件是非匿名的,作者被要求删除/盖上他们的姓名,附属机构和确认的重新提交 PDF,但不改变以前的版本或审查以任何其他方式。作者和审稿人承认,国际法学会可能会对违反利益冲突的个人采取行动,并要求制定论文政策,包括但不限于在未经进一步审查的情况下拒绝其提交的论文,并禁止个人在今后数量有限的国际法学会会议上提交其作品。此外,我们鼓励评审人员检查重新提交的文件是否涉及在对上一版本的评审中指出的事实问题(例如,输入错误、错误的结果归属等) ,并拒绝未能这样做的文件。

2023-12-27 20:56:07 3237 8

原创 论文阅读 - VGAER: Graph Neural Network Reconstruction based Community Detection

社群检测是网络科学中一个基础而重要的问题,但基于图神经网络的社群检测算法为数不多,其中无监督算法几乎是空白。本文通过将高阶模块化信息与网络特征融合,首次提出了基于变异图自动编码器重构的社群检测 VGAER,并给出了其非概率版本。它们不需要任何先验信息。我们根据社群检测任务精心设计了相应的输入特征、解码器和下游任务,这些设计简洁、自然、性能良好(在我们的设计下,NMI 值提高了 59.1% - 56.59%)。

2023-12-06 16:27:49 1238

原创 论文阅读 - Detecting Social Bot on the Fly using Contrastive Learning

社交机器人检测正在成为社会安全领域广泛关注的任务。一直以来,社交机器人检测技术的发展都因缺乏高质量的标注数据而受到阻碍。此外,人工智能生成内容(AIGC)技术的快速发展正在极大地提高社交机器人的创造力。例如,最近发布的ChatGPT[2]可以以74%的概率欺骗最先进的人工智能文本检测方法[3],这给基于内容的机器人检测方法带来了巨大的挑战。为了解决上述缺点,我们提出了一种对比学习驱动的社交机器人检测框架(CBD)。

2023-10-31 08:48:02 1094

原创 论文阅读 - DCGNN: Dual-Channel Graph Neural Network for Social Bot Detection

由于社交机器人检测对信息传播的深远影响,其重要性已得到越来越多的认识。现有的方法可以分为特征工程和基于深度学习的方法,它们主要关注静态特征,例如帖子特征和用户档案。然而,现有方法在区分社交机器人和真实用户时往往忽视了爆发现象,即机器人在长时间交互后突然而剧烈的活动或行为。通过综合分析,我们发现突发行为和静态特征在社交机器人检测中都发挥着关键作用。为了捕捉这些特性,提出了双通道 GNN(DCGNN),它由带有自适应通滤波器的突发感知通道和带有低通滤波器的静态感知通道。

2023-10-30 21:55:41 484

原创 论文阅读 - Learning Human Interactions with the Influence Model

NIPS'01 早期模型要求知识背景: 似然函数,极大似然估计、HMM、期望最大化我们有兴趣对对话环境中人与人之间的互动进行定量建模。虽然有多种模型可能是合适的,如耦合 HMM,但所有模型都需要大量参数来描述链之间的交互。作为替代方案,我们提出了[1]中开发的生成模型--"影响模型",该模型通过对具有恒定 "影响 "参数的成对转换进行凸组合来参数化隐藏状态转换概率。我们为这一模型开发了一种学习算法,并利用合成数据展示了与其他标准模型相比,该模型建立链式依赖关系模型的能力。

2023-10-27 17:55:40 938

原创 论文阅读 - Hidden messages: mapping nations’ media campaigns

几个世纪以来,有权势的行为者一直在进行信息控制,限制、促进或影响信息环境,以适应其不断发展的机构。在数字时代,信息控制已经转移到了网上,信息行动现在瞄准了在新闻参与和公民辩论中发挥关键作用的网络平台。在本文中,我们使用离散时间随机模型来分析在线社交网络中的协调活动,将账户行为表示为相互作用的马尔可夫链。

2023-10-26 21:42:14 819

原创 论文阅读 - MetaTroll: Few-shot Detection of State-Sponsored Trolls with Transformer Adapters

国家支持的 "巨魔 "是社交媒体影响力活动的主要参与者,自动检测 "巨魔 "对于大规模打击虚假信息非常重要。现有的巨魔检测模型是基于已知活动(如俄罗斯互联网研究机构对 2016 年美国大选的影响活动)的训练数据开发的,在处理具有新目标的新型活动时存在不足。我们提出的 MetaTroll 是一种基于元学习框架的文本巨魔检测模型,只需使用少量标记样本就能实现高度的可移植性和参数效率,以适应新的活动。

2023-10-26 09:38:28 151

原创 论文阅读 - Detecting the Hidden Dynamics of Networked Actors Using Temporal Correlations

WWW'23煽动运动对基于事实的推理构成威胁,侵蚀人们对机构的信任,撕裂我们的社会结构。在 21 世纪,宣传运动迅速发展,以新的网络身份出现。其中许多宣传活动持续不断,资源充足,因此识别和清除它们既困难又昂贵。社交媒体公司主要通过优先控制 "协调的不真实行为 "来应对网络宣传的威胁。这一策略的重点是识别明确以欺骗为目的的精心策划的活动,而不是单个社交媒体账户或帖子。在本文中,我们研究了与俄罗斯政府有关的多年影响力活动在 Twitter 上的足迹。信息模型是一个。

2023-10-25 17:02:03 112

原创 论文阅读 - A Large-Scale Longitudinal Multimodal Dataset of State-Backed Information Operations on Twitt

本文提出了一个由28 个子数据集组成的大规模综合数据集,其中包括国家支持的推文和与 14 个不同国家有关的账户,时间跨度超过 3 年(从 2015 年到 2018 年),以及相应的 "负面 "数据集,其中包括同一时期类似主题的背景推文。据我们所知,这是第一个同时包含国家支持的宣传推文和精心收集的相应负面推文数据集的数据集,涉及如此多的国家,时间跨度如此之长。

2023-10-25 15:52:47 111

原创 论文阅读 - Coordinated Behavior on Social Media in 2019 UK General Election

协调的在线行为是信息和影响力行动的重要组成部分,因为它们可以更有效地传播虚假信息。大多数关于协同行为的研究都涉及人工调查,而现有的少数计算方法都做了大胆的假设或过度简化了问题,使其具有可操作性。在此,我们提出了一种新的基于网络的框架,用于揭示和研究社交媒体上的协同行为。我们的研究扩展了现有系统,超越了对协调行为和非协调行为的二元分类限制。它可以揭示不同的协调模式,并估计不同社区的协调程度。我们将框架应用于2019 年英国大选期间收集的数据集,检测并描述参与选举辩论的协调社区。我们的工作。

2023-10-20 15:52:14 743

原创 论文阅读 - VoterFraud2020: a Multi-modal Dataset of Election Fraud Claims on Twitter

围绕美国 2020 年大选,毫无根据的选举舞弊指控广泛传播,导致人们对选举的信任受到损害,最终导致美国国会大厦内的暴力事件。在这种情况下,了解 Twitter 这个传播这些主张的主要平台上围绕这些主张的讨论至关重要。为此,我们收集并发布了 VoterFraud2020 数据集,这是一个多模态数据集,包含260 万用户的 760 万条推文和 2560 万条转发,与选民欺诈主张相关。为了使这些数据立即可用于各种研究项目,我们根据转发图计算的集群标签、每个用户的暂停状态以及推文图像的感知哈希值进一步增强数据。

2023-10-19 22:20:48 142

原创 论文阅读 - Data-driven ideology detection: a case study of far-right extremist

社交媒体是首选渠道,可以让虚假信息叙事以低廉的成本、远程和实时的方式传播到国内和全球受众,并渗透到目标受众的传统信息生态系统中。结果: 我们将我们的方法应用于推特上有关气候变化、COVID-19 和疫苗接种阴谋论的帖子数据集(Kong Q. 等人,2022 年)。我们使用 1496 个被标记为极右派的账户来训练我们的模型。我们的研究提供了一个强有力的框架,可用于识别国家支持的行动者所兜售的特定极端主义意识形态的同情者。我们的方法与领域无关:我们可以快速将其部署到新的讨论领域,而无需进一步的数据注释。

2023-10-18 16:39:27 160

原创 Archive Team: The Twitter Stream Grab

从一般 Twitter 流中抓取的 JSON 的简单集合,用于研究、历史、测试和记忆的目的。这是“Spritzer”版本,最轻、最浅的 Twitter 抓取。不幸的是,我们目前无法访问流的洒水器或花园软管版本。从一般 Twitter 流中抓取的 JSON 的简单集合,用于研究、历史、测试和记忆的目的。不幸的是,我们目前无法访问流的洒水器或花园软管版本。来自维基百科:Twitter 是一种在线社交网络服务和微博服务,使用户能够发送和阅读最多 140 个字符的基于文本的消息,称为“推文”。

2023-10-17 16:09:41 216

原创 马斯克调整了Twitter API服务方案

企业——承诺提供“满足您和您客户的特定需求的商业级访问”以及“由专门的客户团队提供的托管服务”。没有列出具体价格,但 Platformer 此前报道称,“低成本企业计划”每月的费用可能高达 42,000 美元。基本 - 爱好者每月订阅 100 美元,可以选择每月在用户级别发布 3,000 条推文,或每月在应用程序级别发布 50,000 条推文。阅读限制为 10,000 条推文;免费 — 每月可免费发布 1,500 条推文的纯写访问权限。学术社区只声明:还没有良好的解决方案,不过可以选择以上的替代产品。

2023-10-16 09:11:36 378

原创 Twitter 审核研究联盟 - 深入了解 Twitter 上对话的安全性和完整性。

通过 Twitter 审核研究联盟(“TMRC”或“联盟”),Twitter 与全球成员团体共享有关平台审核问题的大规模数据集,其中成员包括来自学术界、民间社会、非政府组织和新闻界的公共利益研究人员,研究平台治理问题。通过该联盟,Twitter 将继续支持我们现有的持续平台操纵活动数据集的披露,其中包含违反我们的平台操纵和垃圾邮件政策而发布的材料。随着时间的推移,我们打算与联盟分享有关其他政策领域的类似综合数据。透明度是我们使命的核心,从一开始就是 Twitter 的重要组成部分。

2023-10-13 11:50:47 99

原创 论文阅读 - Graph-ToolFormer: To Empower LLMs with Graph Reasoning Ability via Prompt Augmented by ChatGP

本文旨在开发一种具有复杂图数据推理能力的大型语言模型(LLM)。目前,LLM 在各种自然语言学习任务中都取得了令人瞩目的成绩,其扩展功能还被应用于研究多模态数据的视觉任务。然而,当涉及图学习任务时,现有的 LLMs 在执行精确数学计算、多步骤逻辑推理、感知空间和拓扑因素以及处理时间进程方面存在固有的弱点,因而存在非常严重的缺陷。为了应对这些挑战,本文将研究赋予现有 LLMs 图推理能力的原理、方法和算法,这将对当前 LLMs 和图学习的研究产生巨大影响。

2023-09-20 08:46:34 494

原创 论文阅读 - Natural Language is All a Graph Needs

ChatGPT 等大规模预训练语言模型的出现,彻底改变了人工智能的各个研究领域。基于 Transformer 的大语言模型 (LLM) 已逐渐取代 CNN 和 RNN,以统一计算机视觉和自然语言处理领域。与图像、视频或文本等相对独立存在的数据相比,图是一种包含丰富的结构和关系信息的数据。同时,自然语言作为最具表现力的媒介之一,擅长描述复杂的结构。然而,现有的将图学习问题纳入生成语言建模框架的工作仍然非常有限。

2023-09-18 10:27:54 1041

原创 论文阅读 - Outlier detection in social networks leveraging community structure

社交网络已成为现代社会的一个重要方面,并逐渐成为世界范围内不可或缺的交流手段。每天都有大量数据通过社交网络传输。因此,确保安全成为一种必要。可疑用户或垃圾邮件发送者可能会对用户在网络上共享的信息和数据构成威胁。有鉴于此,异常值检测是网络通信的一个重要方面。本文提出了一种新技术,利用网络社区结构从全局角度识别网络中的异常情况。一般来说,最先进的异常值检测算法主要关注单个节点及其直接邻域。但我们的技术只考虑那些倾向于属于多个社区的节点,或其邻居属于同一社区或不属于任何社区的节点。

2023-09-13 21:27:03 445

原创 论文阅读:BotFinder: A Novel Framework for Social Bots Detection in Online Social Networks Based

近年来,随着在线社交网络(OSN)的广泛普及,用户数量也呈指数级增长。与此同时,社交机器人(即由程序控制的账户)也在不断增加。OSN 的服务提供商经常使用它们来保持社交网络的活跃。同时,一些社交机器人的注册也是出于恶意目的。有必要检测这些恶意社交机器人,以呈现真实的舆论环境。我们提出的 BotFinder 是一个检测 OSN 中恶意社交机器人的框架。具体来说,它结合了机器学习和图方法,从而可以有效地提取社交机器人的潜在特征。在特征工程方面,我们生成二阶特征,并使用编码方法对具有高卡因度的变量进行编码。

2023-09-12 16:00:04 419 1

原创 论文阅读-A General Language for Modeling Social Media Account Behavior

恶意行为者利用社交媒体抬高股价、影响选举、传播错误信息并煽动不和。为此,他们采用的策略包括使用不真实的帐户和活动。目前检测这些滥用行为的方法依赖于专门针对可疑行为而设计的特征。然而,这些方法的有效性随着恶意行为的发展而减弱。为了应对这一挑战,我们提出了一种用于建模社交媒体帐户行为的通用语言。这种语言中的单词称为 BLOC,由代表用户操作和内容的不同字母表中的符号组成。该语言高度灵活,无需进行大量微调即可用于对各种合法和可疑的在线行为进行建模。

2023-09-11 14:29:44 757

原创 开放域问答论文阅读-Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augme

知识密集型任务(例如,开放域问答(QA))需要大量事实知识,并且通常依赖外部信息的帮助。最近,大型语言模型(LLM)(例如 ChatGPT)在利用世界知识解决各种任务(包括知识密集型任务)方面表现出了令人印象深刻的能力。然而,目前尚不清楚LLM能够如何感知他们的事实知识边界,特别是他们在结合检索增强时的表现。在这项研究中,我们对LLM的事实知识边界进行了初步分析,以及检索增强如何影响LLM在开放领域问答方面的影响。

2023-08-28 17:00:04 248

原创 开放域问答论文-Generator-Retriever-Generator: A Novel Approach to Open-domain Question Answering

开放域问答(QA)任务通常需要从大型语料库中检索相关信息以生成准确的答案。我们提出了一种称为生成器-检索器-生成器(GRG)的新颖方法,它将文档检索技术与大型语言模型(LLM)相结合,首先提示模型根据给定问题生成上下文文档。同时,双编码器网络从外部语料库中检索与问题相关的文档。然后,生成和检索的文档将传递给第二个LLM,后者生成最终答案。通过结合文档检索和 LLM 生成,我们的方法解决了开放域 QA 的挑战,例如生成信息丰富且上下文相关的答案。

2023-08-17 16:57:51 311

原创 论文阅读-Identifying Coordinated Accounts on Social Media through Hidden Influence and Group Behaviours

社交媒体上的虚假信息活动越来越普遍,其中包括从恶意账户为操纵公众舆论而开展的协调活动。现有的检测协调帐户的方法要么对协调行为做出非常严格的假设,要么需要揭露协调组中的部分恶意帐户才能检测其余帐户。为了解决这些缺点,我们提出了一种生成模型 AMDN-HAGE(具有隐藏帐户组估计的注意混合密度网络),它基于时间点过程(TPP)和高斯混合模型(GMM)联合建模帐户活动和隐藏组行为,为了捕捉协调的内在特征,即协调的账户必须强烈影响彼此的活动,并且总体上与正常账户表现出异常。

2023-08-12 15:48:58 269

论文:On the efficacy of old features for the detection of new bots

论文:On the efficacy of old features for the detection of new bots

2022-12-22

深度伪造-- GAN网络相关内容(课程内容简单整理)

深度伪造-- GAN网络相关内容(课程内容简单整理)

2022-03-23

神经网络发展历程--简单介绍

神经网络发展历程--简单介绍

2022-03-23

BP(梯度回传)算法的详解

BP(梯度回传)算法的详解

2022-03-23

情感计算下一部分内容,关于表情识别(图像,视频)的介绍

情感计算下一部分内容,关于表情识别(图像,视频)的介绍

2022-03-16

矩阵论-线性空间第一部分

矩阵论后面的内容都在博客上直接写了,第一部分是PDF形式的。

2022-03-04

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除