自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 自然语言处理【NLP】系列——实战自然语言推理中的问答任务(小白级入门教程)

在问答任务(Question Answering)中,BERT 等模型通过给定一个问题和一段段落,预测出段落中最有可能作为答案的子串。

2025-05-27 15:54:46 941

原创 自然语言处理【NLP】系列之文本分类——为情绪识别微调BERT(小白级入门教程)

本篇博文主要用来学习如何为一个文本分类任务微调BERT模型,本次具体要做的任务是情绪识别,属于入门级教程哦!

2025-05-27 14:33:31 947

原创 如何在Linux服务器上配置自己的python环境?同时使用yolov7进行验证

干中学,干中学,边干边学,方能受益无穷。

2025-05-12 11:31:46 597

原创 BERT模型理论篇

根据这位大佬的博文,我先码一篇BERT模型的理论篇用于自己理解与学习。

2025-05-07 20:10:59 871

原创 图生文系列之LLaVA(一):LLaVA的快速理解

LLaVA的模型架构基于CLIP(Contrastive Language-Image Pre-training)的视觉编码器和LLaMA(一个开源的大语言模型)的语言解码器。通过将这两个强大的模型连接起来,LLaVA能够在视觉和语言两个维度上进行高效的信息处理与融合。具体来说,CLIP的视觉编码器负责提取图像中的视觉特征,而LLaMA的语言解码器则负责理解和生成自然语言文本。通过端到端的微调,LLaVA能够学会如何将视觉特征转换为语言描述,实现视觉与语言的双向交互。

2025-05-06 16:45:35 1194

原创 Batch Normalization和Layer Normalization的区别(二)

的若干个维度。这些维度将被用来计算均值和标准差,并进行归一化。

2025-05-06 13:55:51 843

原创 Batch Normalization和Layer Normalization的区别(一)

笔者在学习Vision Transformer模型时,注意到Transformer Encoder模块中,在进行多头注意力机制(Multi-Head Attention)和前馈神经网络层(MLP)之前都会进行Layer Normalization。想到之前在学习其他模型时用到的Batch Normalization,于是提出疑问:二者的主要区别以及适用情况是什么?特整理出该文进行系统地学习。

2025-05-02 12:06:53 1076

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除