自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 Transformer注意力机制由来

人类大脑通过注意力机制高效筛选关键信息,这一原理被AI借鉴形成注意力模型。如查找合影中的红衣服者:大脑用"红色衣服"作为查询(Query),扫描照片中每个人的特征(Key),当匹配到"红色T恤"时,就聚焦该人物(Value)。这种机制模拟了人类选择性关注核心信息的能力,使AI能像人一样快速定位关键内容。

2025-08-01 16:39:13 224

原创 CNN卷积神经网络各模块作用讲解

CNN(卷积神经网络)通过局部连接和参数共享显著减少参数量,提高训练效率。其核心组件包括卷积层(提取局部特征)、池化层(降采样)、填充(控制输出尺寸)和步幅(调节滑动步长)。多通道输出机制允许每个卷积核生成独立特征图,例如64个5×5核处理32×32×3输入可输出32×32×64特征。1×1卷积可调整通道数,控制模型复杂度。这些特性使CNN特别适合处理图像等具有空间局部性的数据。

2025-08-01 16:35:02 331

原创 RNN流程介绍

RNN(循环神经网络)是一种处理序列数据的神经网络架构,解决了传统全连接网络无法处理变长序列和序列间信息共享的问题。其核心是循环体结构,通过隐藏状态在不同时间步传递信息,实现序列特征的共享。RNN架构包含输入层、循环体和输出层,支持多对一、一对多、多对多等不同输入输出组合模式。但RNN存在长期依赖问题,即难以捕捉远距离序列关系。为此发展出LSTM和GRU等改进模型。RNN广泛应用于文本分类、机器翻译、语音识别等领域。

2025-08-01 16:22:49 647

原创 Transformer详细讲解(按模块讲解诶)

Transformer模型是一种基于自注意力机制的神经网络架构,主要由编码器(Encoder)和解码器(Decoder)组成。其输入由词嵌入和位置编码相加而成,解决了传统序列模型无法捕获位置信息的问题。核心组件Self-Attention通过计算查询(Q)、键(K)、值(V)矩阵来获取单词间的关联度,并采用多头注意力机制从不同子空间学习特征。模型还包含残差连接和层归一化(Add & Norm)来稳定训练,以及前馈网络(FFN)进行非线性变换。编码器通过堆叠多个这样的模块,逐步提取和融合上下文信息,形

2025-08-01 16:16:12 911

原创 Python基础回顾笔记(二)

本文主要包括了python中的类、对象、封装、继承的基本介绍,以及对异常的处理、文件的的基本操作、pyecharts的实例应用等。并且主要汇总了以上内容的相关常用函数的作用以及使用。有问题的读者可以评论留言。

2024-10-24 16:08:21 783 1

原创 Python基础回顾笔记(一)

Python基础回顾,包含重点、易忘点、容器相关重点函数介绍,基础知识回顾复习。重点为列表、元组、字符串、集合、字典五种容器的理解以及常用函数的使用。

2024-10-20 18:09:08 1832 1

原创 韩顺平零基础学习Java笔记总结(一)

Java学习笔记持续更新中。。。

2024-10-19 12:10:50 2158 1

原创 论文阅读-Unveiling the Truth and Facilitating Change: Towards Agent-based Large-scale Social Movement Si

揭示真相,促进变革:基于代理人的大规模社会运动模拟

2024-09-28 15:12:55 1896 1

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除