自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(309)
  • 资源 (14)
  • 收藏
  • 关注

原创 文本预训练模型构建实例

本次任务是一个完形填空任务,需要加载预训练模型,并在自己的数据集上进行微调。

2024-05-23 11:00:58 10

原创 文本摘要建模实战——从标注到训练

安装:pip install doccano配置:# Create a super user.用户名和密码自行指定# Start a web server.端口号可能被占用,重新指定一个Go to创建项目:导入数据文本摘要标注导出数据为CSV格式,结果如下。

2024-05-23 11:00:32 410

原创 Huggingface数据集制作方法实例

load_dataset函数支持多种文件格式,例如csv,text,json,pandas。

2024-05-22 20:13:54 11

原创 FakeGPT:大语言模型在虚假新闻生成、检测、解释的探索

假新闻的广泛传播对社会造成了不利影响,引发了大量关于遏制其传播的研究。作为大型语言模型(LLMs)的一个重要里程碑,ChatGPT因其出色的自然语言处理能力而备受关注。论文全面探讨了ChatGPT在生成、解释和检测假新闻方面的能力。论文使用四种提示方法生成假新闻样本,并通过自我评估和人工评估证明这些样本的高质量。基于ChatGPT的解释,论文确定了九个特征来表征假新闻,并分析了这些特征在多个公共数据集中的分布。

2024-05-22 14:22:26 14

原创 命名实体识别实战——从数据标注到模型

命名实体识别(Named Entity Recognition,简称NER)的主要目标是从文本中识别出具有特定意义的实体,如人名、地名、组织机构名、时间、数量等,并将其归类到预定义的类别中。这一过程确实可以被视作是一个在NER任务中,每个token都被分配一个标签,这些标签代表了该token所属的命名实体类型。例如,在句子“李华明天将飞往纽约参加联合国会议”中,NER系统需要识别出“李华”为人名、“明天”为时间表达式、“纽约”为地理位置、“联合国”为组织机构。

2024-05-22 14:22:04 374

原创 TELLER:可解释的、可控的、通用的虚假新闻检测框架

尽管现有的深度学习方法在预测准确性方面取得了一定的成功,但它们因神经网络的黑箱性质而缺乏透明性,并且在面对与训练数据分布不同的未见数据时泛化能力有限。此外,与LLMs的整合可能导致不可控的风险,如幻觉和社会影响。为了应对这些挑战,论文提出了TELLER框架,它优先考虑了假新闻检测技术的三个关键方面:可解释性、泛化能力和可控性。

2024-05-20 18:17:01 104

原创 利用文本图像对比模型进行虚假信息检测

社交媒体平台上新闻文章的激增,使信息获取更加便捷,但也加剧了虚假信息的传播,带来了网络和现实社会的负面影响。特别是在新冠疫情期间,虚假信息的传播引发了诸多社会问题。因此,迫切需要能够准确高效地检测虚假新闻内容的工具。传统的手工监控方式耗时耗力,而现有的自动化方法大多依赖于监督学习,但受到标注数据有限的制约。目前的研究主要集中在利用自然语言处理技术检测文本中的虚假信息,忽视了图文结合的虚假信息。Aneja等提出了COSMOS数据集,

2024-05-20 14:49:52 8

原创 BERT系列算法解读

从而提高模型在SQuAD、MNLI和SST-2数据集上的性能。总的来看,这些优化措施显著增强了模型的表现。

2024-05-19 17:14:11 148

原创 Transformer工具包基本操作实例解读

自然语言处理(NLP)致力于解锁文本数据的奥秘,使之成为计算机可理解、可操作的信息。迈入NLP的大门,首要任务是将原始文本数据转换为便于分析的形式。在中文情境中,这通常涉及分词或分字操作,即依据语言特性将连续的字符串切分成有意义的词语或单字单元。不同的语言有不同的分词方法,体现了NLP对语言特性的敏感适应。单纯的字符对于计算机而言只是抽象符号,缺乏内在含义。为让机器理解,我们需要将这些词语或字符映射到一个数值向量空间中,这个过程称为词嵌入。

2024-05-19 14:41:42 34

原创 Huggingface与NLP介绍解读

自然语言处理(NLP),作为人工智能的一个核心分支,旨在让计算机具备理解、解析、生成人类自然语言的能力,从而架起人与机器之间的沟通桥梁。这项技术远不止于实现简单的分类、机器翻译、情感分析、智能客服、摘要生成或阅读理解等任务,其深层次的目标是模拟并逼近人类语言学习与理解的复杂过程。如同我们人类在成长过程中,通过日常对话、广泛阅读、听取故事、参与讨论等多种情境逐步积累语言知识与运用能力,NLP技术也在尝试通过海量数据的“学习”,理解和掌握语言的细微差别、文化内涵及语境意义。

2024-05-17 10:53:47 38

原创 基于BERT的中文命名实体识别识别实战

通过这样的机制,CRF模型在整个序列上优化所有标签的联合概率,确保不仅是单个标签的选择合理,而且整个序列的标签分配也是全局最优的,这就体现了概率转移规则在命名实体识别中的作用。对于“李华”,CRF模型会考虑“开始位置+李华->B-PER”的发射特征以及后续位置上的标签转移概率,比如从“B-PER”转移到“I-PER”或转移到其他类型如“B-LOC”的概率。对于“大学”,由于前面是“北京”,模型会高概率地分配“大学”以“I-LOC”标签,利用先前的“B-LOC”作为上下文,这是基于状态转移概率的决策。

2024-05-17 09:16:45 601

原创 基于BERT的中文情感分析实战

这里需要自定义一个数据读取代码,用于读取情感分析数据及标签,并加入到InputExample中,数据读取代码如下,类SimProcessor继承自DataProcessor类别,并提供了train/val/test数据读取的代码。预训练权重使用的谷歌官方提供的预训练权重, GLUE/BERT_BASE_DIR是项目的预训练权重,预训练权重主要包含3个部分:参数配置文件、预训练权重和预料表。注意项目中不要有中文路径。在data目录下,提供了中文情感分析的数据, 类别1代表正向情感,类别2代表负向情感。

2024-05-16 19:28:15 346

原创 谷歌开源项目BERT源码解读与应用实例

GLUE/BERT_BASE_DIR是项目的预训练权重,预训练权重主要包含3个部分:参数配置文件、预训练权重和预料表。参数配置文件中存放模型所需参数,语料表中存放所有的词及其编号。glue_data文件夹下存放的是数据集以MPRC数据集为例,MPRC数据集是要判断string 1和string 2的含义是否一致,数据集中包含标签(quality),ID1,ID2(string对应的ID),以及两个字符串。

2024-05-16 17:30:19 179

原创 自然语言处理通用框架BERT原理解读

早期的机器翻译和文本生成任务常采用基于循环神经网络(RNN)的序列到序列(Seq2Seq)模型,这类模型在处理长序列时容易遇到梯度消失/爆炸问题,导致训练效率低,难以捕捉长期依赖。RNN及其变种如LSTM和GRU在网络结构上的顺序执行特性限制了其并行计算能力,使得训练速度受限。此外,对于某些复杂语言结构的理解和生成不够高效和准确。传统的词嵌入方法如Word2Vec虽然能有效学习单词的分布式表示,但它基于上下文独立的假设生成固定向量,无法体现单词在不同语境中的多义性。

2024-05-15 21:23:29 102

原创 知识蒸馏详解

知识蒸馏,其核心在于如何让一个小型、资源友好的模型(学生模型)通过学习一个庞大、性能优越但资源消耗大的模型(教师模型)的知识,从而在保持较小规模的同时,接近或达到教师模型的预测能力。这一过程就如同聪明的学生从优秀老师那里不仅学习到知识的精髓,还能借鉴老师的思考方式,最终虽不及老师经验丰富,却也能独立解决复杂问题。

2024-05-15 21:21:57 48

原创 Mobilenet四代网络模型架构

Mobilenet是一个用于移动端和嵌入式的神经网络,其核心思想是采用深度可分离卷积替代标准的卷积,以减少参数和计算量,同时也可对网络通道数和分辨率采用缩放策略。Mobilenet v2仍然是基于深度可分离卷积,使用倒残差结构解决深度可分离卷积中的窄边非线性激活的问题。MobileNetV3在 Mobilenet v2的基础上进一步引入了注意力机制SE模块,并使用了H-Swish激活函数。(1)现有问题移动设备的计算能力有限,同时需要处理实时交互体验,这要求模型既要高效也要具备高准确性。

2024-05-12 20:20:26 66 2

原创 多模态假新闻检测的增强自适应知识学习(Reinforced Adaptive Knowledge Learning for Multimodal Fake News Detection)

当前虚假新闻检测方法通常只依赖于文本或视觉内容的语义特征,在没有背景知识的前提下,无法有效区分精心制作的假新闻。此外,现有的知识增强检测方法通常使用静态的实体嵌入来整合外部知识,这可能会引入噪声和与内容无关的知识,且难以处理多模态语义和知识实体之间复杂的关系。自适应知识子图生成:模型采用强化学习方法,针对每条新闻动态生成一个包含最相关知识事实的紧凑知识子图。这种方法可以有效地选择与新闻内容最相关的知识路径。异构新闻图的构建与细化。

2024-05-12 20:19:55 30

原创 异构图神经网络代码详解与实战

定义异构图需要定义点和边,点有两组类型,user和movie,user类型的点只有id,后续需要经过编码得到特征,而movie点的特征为movie题材得到的one hot编码,user和movie通过评分(边)连接起来。然后,我们将整个图划分为训练集、测试集与验证集。需要注意的是,在数据集很大的情况下(如淘宝),整个图将会很大,处理这样的图需要很多的资源,因此,我们往往采样子图进行训练。# following PyG semantics:构建边,从user到movieprint()

2024-05-11 20:42:04 71

原创 Mask2former代码详解

Mask2former流程如图所示,对于输入图片,首先经过Resnet等骨干网络获得多层级特征,对于获得的多层级特征,一个方向经过pixel decoder(基于DetrTransformerEncoderLayer)得到per-pixel embedding,另外一个方向经过transformer decoder,得到mask embedding,矩阵乘法得到mask pediction,对于语义分割任务使用class prediction和mask prediction做矩阵乘法得到预测结果。

2024-05-11 19:35:03 303

原创 分割模型Maskformer系列

传统的语义分割方法通常采用逐像素分类(per-pixel classification),而实例分割则使用不同的掩模分类(mask classification)方法。能否用掩膜分类的方法处理语义分割呢?当然是可以的。(掩膜分类:与逐像素分类不同,掩膜分类不是对每个像素单独分类,而是预测整个区域的掩膜(即区域的边界和形状),并将整个掩膜分类到一个类别。这种方法识别整个对象或区域,而不仅仅是单个像素。

2024-05-08 20:44:06 924 1

原创 异构图神经网络——Heterogeneous Graph Neural Networks

GNN基本计算方法——邻接矩阵乘以节点,聚合相邻节点的特征,得到本节点的特征表达。

2024-05-08 20:43:11 882

原创 视频超分辨率重构——BasicVSR++

为了加强视频帧之间信息的传递和提炼,BasicVSR++采用了二阶网格传播机制,通过增设二阶连接来增强特征的传播,从而在视频序列中实现更加有效的信息交换和精细化的特征提炼。即BasicVSR++结合前两帧的信息预测下一帧,对于当前帧的预测,首先输入前两帧对应的特征图,经过光流对齐,得到对齐后的特征图。最后,将DCN偏移量、mask、特征图输入到DCN模块即可得到最终特征图结果。下图中描述的是一阶光流对齐,二阶操作非常类似,首先,对于前两帧特征图。,分别经过光流对齐,得到对齐后的特征。

2024-05-06 11:47:43 260

原创 基于大模型(LLM)相互协商的情感分析

在情感分析任务中,传统的单一大型语言模型(LLM)通常只通过单轮输出来做出决策。这种方法的主要缺点是无法完美应对需要深入推理的复杂语言现象,如从句构成、反讽等。即便是在较为简单的情况下,单轮输出也可能因为缺乏足够的上下文理解而导致决策失误。推理增强生成器:该生成器不仅产出情感决策,还提供决策背后的推理链,增强了生成器在情感分析中的解释能力和准确性。解释派生鉴别器:鉴别器的角色是评估生成器输出的可信度,并提供评估的理由。这一过程帮助识别和修正生成器可能产生的错误或偏差。多轮协商机制。

2024-05-06 11:47:13 150

原创 模型剪枝——Linear Combination Approximation of Feature for Channel Pruning

传统的剪枝技术主要集中在去除对模型性能影响较小的权重上,但这种方法通常产生非结构化的稀疏性,难以实际加速网络。为了解决这一问题,研究者转向了通道剪枝技术,该技术通过去除整个通道及其所有连接,保持了网络的结构化,从而实现实际的加速。但是,之前的通道剪枝方法忽视了微调过程。为了考虑到微调过程,本文提出的线性组合特征逼近(LCAF)方法是一种新型的通道剪枝技术,它综合考虑了基于冗余和可替代性的剪枝方法的优点。特征逼近:在同一层中,使用其他特征图的线性组合来逼近每个特征图。选择和剪枝。

2024-05-05 15:06:28 726

原创 KIE基于图模型的关键信息抽取源码详解

下载数据集。

2024-05-05 15:05:43 67

原创 KIE关键信息抽取——SDMG-R

背景:传统的关键信息提取方法依赖于模板匹配,这使它们难以泛化到未见过的模板,且对文本识别错误不够鲁棒。SDMG-R方法:提出一种端到端的双模态图推理方法,通过构建双模态图(视觉和文本特征),并在图节点之间迭代传递信息以推理分类。其具体流程为:图模型:将文档图像建模为图,图的节点代表检测到的文本区域,节点间的边表示空间关系。特征学习:每个节点通过循环神经网络(RNN)和卷积神经网络(CNN)学习文本和视觉特征。信息传播:节点特征通过图边迭代传播,最终进行关键信息的分类。

2024-05-03 09:52:25 220

原创 模型剪枝——SELECTIVE BRAIN DAMAGE

这篇论文讨论了剪枝技术在提高网络效率方面的潜力及其科学基础,将其与人脑发展中的突触剪枝相比较。并提出了几个研究问题:特定类型的样本或类别是否受到剪枝的不成比例影响?剪枝如何影响模型对于图像损坏(如模糊、噪声、对比度变化)和对抗性样本的鲁棒性?定义:剪枝识别样本(PIE)是在稀疏和非稀疏模型之间表现出不一致预测结果的样本。这些样本被认为是对剪枝过程中稀疏性变化最敏感的。挑战:PIEs对模型的泛化能力特别具有挑战性。研究表明,仅在PIEs上进行推断会显著降低模型的整体泛化性能,尤其是在模型高度稀疏的情况下。

2024-05-03 09:51:53 40

原创 大模型(LLM)的推理加速

论文分析并总结了如何提高大型语言模型(LLM)在推断阶段的效率。文中指出,尽管LLM在多种任务中表现出色,但它们在资源有限的环境中的部署却面临着由于模型大小、注意力机制的复杂性和自回归解码过程所带来的计算和存储成本的挑战。文章通过建立一个包含数据层面、模型层面和系统层面优化的全面分类体系,探讨了当前文献中的不同优化策略,并进行了一系列比较实验,以提供定量见解。最后,文中还总结了现有知识并讨论了未来的研究方向。 Transformer由注意力机制和FFN层构成,自注意力机制带来大量的计算量,计算

2024-05-02 15:00:59 669

原创 知识图谱与大语言模型的协同(RAG)——MindMap

大型语言模型(LLMs)在处理新信息、防止生成幻觉内容、以及增强决策过程透明度方面存在局限。存在的问题不灵活性(Inflexibility):预训练的LLMs包含过时的知识,并且很难进行参数更新。幻觉(Hallucination):LLMs在生成答案时常常会产生听起来合理但实际错误的幻觉,这在高风险领域尤为关键。缺乏透明度(Lack of Transparency):由于LLMs的“黑盒”特性,其决策过程不易被理解和验证。解决方案。

2024-05-02 15:00:28 355

原创 模型剪枝——RETHINKING THE VALUE OF NETWORK PRUNING

L1-范数基于滤波器剪枝:作者评估了使用L1-范数进行滤波器剪枝的方法,并比较了剪枝模型与从头训练模型的性能。在CIFAR-10和ImageNet数据集上,直接从头开始训练的模型(Scratch-B)通常比经过剪枝和微调的模型表现得更好。ThiNet与基于回归的方法的实验结果也类似,从头开始训练小型模型不仅可行,而且往往能得到更好的性能。这进一步质疑了传统剪枝策略的必要性。

2024-04-29 21:13:34 417

原创 模型剪枝-Network Slimming实战解读

项目目录文件如下:参数配置:训练,并且加入l1正则化 -sr --s 0.0001​​​​​执行剪枝操作 --model model_best.pth.tar(剪枝权重文件) --save pruned.pth.tar(保存剪枝结果) --percent 0.7(剪枝比例)再次进行微调操作 --refine pruned.pth.tar --epochs 40。

2024-04-28 15:37:58 43

原创 DBNET文字检测与文字识别源码详解

配置mmorc:pip install -U openmimmim install mmenginemim install mmcvmim install mmdet git clone https://github.com/open-mmlab/mmocr.gitcd mmocrpip install -v -e . 数据集:Tasks - Incidental Scene Text - Robust Reading Competition数据集下载后放到data目录下:

2024-04-28 09:13:17 29

原创 多模态文字识别——文字检测DBNET、文字识别ANINET

基于分割的方法在场景文本识别中十分流行,但是这往往需要设定阈值进行二值化处理。以往的方法都是预先设定一个阈值。因此,本篇论文提出了一个DB模块,能够自适应的调整阈值,这能够有效降低后处理的流程,并提升检测的性能。文章指出,从场景图像中读取文本对人工智能至关重要。早期尝试通过分类模型识别无意义的字符,但在遇到遮挡、模糊、噪声等挑战环境时,这些方法效果不佳。同时,文本富含语言信息,可以根据上下文进行推理。因此,一些方法转向语言建模,并取得了不容置疑的进步。然而,如何有效模拟人类阅读中的语言行为仍是一个开放问题。

2024-04-28 09:12:50 37

原创 虚假新闻检测——On the Risk of Misinformation Pollution with Large Language Models

研究首先识别了大型语言模型(LLM)在生成误导性信息方面的潜在问题,并通过一系列模型揭示了这些问题如何影响开放领域问答(ODQA)系统的准确性和可靠性。如下图所示,威胁模型清晰地展示了两种主要风险:恶意用户故意利用LLM散播错误信息,以及常规用户在无意中通过LLM获取误导性答案。错误信息检测:开发技术来自动识别由LLM生成的潜在误导性内容。警觉提示:优化模型的提示机制,以减少误导性输出的风险。阅读器集成:通过集成多种阅读模型来检验和验证信息,增强系统对误导信息的抵抗力。

2024-04-27 11:29:42 43

原创 通过大模型(LLM)的多模态辩论的恶意表情包识别

对于恶意表情包的识别,以往的研究方法没有能够深入表情包所隐含的复杂意义和文化背景,因此,他们往往不能充分解释某个表情包是有害的。

2024-04-27 11:29:26 38

原创 模型剪枝-Network Slimming算法分析

由于边缘设备的限制,在模型的部署中经常受到模型大小、运行内存、计算量的限制。之前的方法要么只能解决其中一个问题,要么会带来精度损失。因此,论文提出能够使用BN层中的缩放因子γ实现对通道的剪枝,这种方法能够很好的解决三个问题,同时也不会带来过多的精度损失,也不需要进行额外的网络结构搜索。具体如下:在每层卷积中,有多个特征图,例如64个特征图。但是这64个特征图不一定都重要,保留其中重要的特征图,而将不重要的特征图剪枝掉,这就是模型剪枝。因此,首先我们需要给每个特征图一个权重因子,然后保留其中重要的特征图。

2024-04-25 15:15:10 1699 2

原创 虚假新闻检测——Towards Reliable Misinformation Mitigation:Generalization, Uncertainty, and GPT-4

这项研究集中讨论了误导信息的挑战,强调了现有方法未能有效解决这一问题。作者提出通过关注模型的泛化能力、不确定性处理以及利用最新的大型语言模型(如GPT-4),来创建更实用的工具以评估信息的真实性,特别是在完美分类无法实现的情况下。研究首先展示了GPT-4在多个设置和语言中的优越性能。接着,探讨了GPT-4与RoBERTa-large在失败模式上的不同。此外,还提出了处理不确定性的技术,这些技术能够检测不可能的案例并显著改善结果。

2024-04-25 15:14:53 49

原创 虚假新闻检测——Exploring the Role of Large Language Models in Fake News Detection

该研究探讨了大型语言模型(如GPT-3.5)与小型语言模型(如BERT)相比,在检测假新闻方面的有效性。研究结果表明,尽管大型语言模型能够提供有价值的多视角依据,但性能不如微调的小型语言模型,例如BERT。该研究将这种表现不佳归因于大型语言模型在选择和整合这些依据形成连贯结论方面的局限性。因此,该文提出大型语言模型不应该替代小型语言模型,但可以作为顾问,增强小型语言模型的检测能力。因此,论文提出了ARG,旨在有效地将大型语言模型的洞察力整合到小型语言模型中。

2024-04-24 11:36:17 278

原创 docker实例演示

Docker是一个开源的应用容器引擎,它可以让开发者将应用以及应用的依赖打包到一个可移植的容器中,然后发布到任何Linux机器上,实现虚拟化。容器是完全使用沙箱机制,相互之间不会有任何接口,更重要的是容器性能的开销极低。Docker利用容器技术,实现了应用和环境的打包,方便在不同机器和平台上进行部署和扩展,大大提高了应用的可移植性和一致性。:Docker可以为每个应用创建一个独立的运行环境,避免了不同应用之间的环境冲突。

2024-04-24 08:56:37 34

原创 tensorflow-serving实战

1.打开主页下载完我们只需要其中的一个训练好的模型而已4.需要把模型复制到C盘下5.进入到下载好的github项目中,进入该路径6.模型说明00000123 表示模型的版本号7.执行该命令docker run -t --rm -p 8501:8501 -v 本地路径:/models/xxx -e MODEL_NAME=half_plus_two tensorflow/serving必须绝对路径,注意路径的格式server已经启动8.测试hello_world。

2024-04-24 08:55:37 129 1

人工智能+Vectornet源码详解+博客资源

人工智能+Vectornet源码详解+博客资源,博客地址https://blog.csdn.net/qq_52053775/article/details/128510992

2023-01-01

博客资源:clip-demo测试效果展示

博客资源,博客地址:https://blog.csdn.net/qq_52053775/article/details/127461404.clip--demo测试效果展示

2022-10-22

博客资源+seaborn相关操作

博客配套资源,博客地址:https://blog.csdn.net/qq_52053775/article/details/125905536 给个好评吧!

2022-10-14

博客资源+pandas相关代码

博客中pandas相关操作代码,博客地址:https://blog.csdn.net/qq_52053775/article/details/125626554, 给个好评吧!

2022-10-14

博客资源+Matplotlib绘图的基本使用

Matplotlib绘图的基本使用。建议参考博客:https://blog.csdn.net/qq_52053775/article/details/125866631 给个好评吧!!

2022-10-14

python+词云图+自然语言处理

机械压缩去词 文本预处理 词云图

2022-07-13

自然语言处理+情感分析+主题分析+词云图

词云图 情感分析 LDA主题分析 机械压缩去词

2022-07-13

数学建模+时间序列预测+LSTM+股票数据分析

数据挖掘 LSTM 时间序列预测 随机森林 基于LSTM的股票数据分析 数学建模 探究股票各指标的相关性、建立模型 建立LSTM时间序列模型

2022-07-13

基于LeNet-5的手写体数字识别

基于LeNet-5的手写体数字识别

2022-04-24

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除