victor-AI最好的学习方式是画图
码龄6年
关注
提问 私信
  • 博客:68,821
    社区:1
    68,822
    总访问量
  • 138
    原创
  • 28,304
    排名
  • 170
    粉丝
  • 0
    铁粉
  • 学习成就

个人简介:滴水穿石

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:广东省
  • 加入CSDN时间: 2018-12-04
博客简介:

weixin_43954090的博客

查看详细资料
  • 原力等级
    成就
    当前等级
    4
    当前总分
    500
    当月
    0
个人成就
  • 获得245次点赞
  • 内容获得10次评论
  • 获得223次收藏
  • 代码片获得299次分享
创作历程
  • 39篇
    2024年
  • 9篇
    2023年
  • 6篇
    2022年
  • 8篇
    2021年
  • 76篇
    2020年
成就勋章
TA的专栏
  • AI
    2篇
  • springboot
    1篇
创作活动更多

如何做好一份技术文档?

无论你是技术大神还是初涉此领域的新手,都欢迎分享你的宝贵经验、独到见解与创新方法,为技术传播之路点亮明灯!

342人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

AI学习记录 - L2正则化详细解释(权重衰减)

在神经网络训练的时候,权重可能会变得很大,或者变得很小,因为我们没有制定任何的限制,导致模型变很复杂,例如出现99,-100这种极端权重出现,因为可能拟合了奇怪的数据。一般情况下我看到权重大概都在-5到5之间。
原创
发布博客 2024.10.06 ·
513 阅读 ·
3 点赞 ·
0 评论 ·
9 收藏

AI学习记录 -transformer 中对于torch和numpy常用函数的使用方式

在指定维度增加一个维度。
原创
发布博客 2024.09.28 ·
445 阅读 ·
10 点赞 ·
0 评论 ·
5 收藏

AI学习记录 - 旋转位置编码

旋转矩阵为:下面我们来套用上面说到的公式计算:
原创
发布博客 2024.09.05 ·
688 阅读 ·
3 点赞 ·
0 评论 ·
10 收藏

AI学习记录 - 解读llama3

这是github大佬的llama3的代码,我继续加上属于我自己的理解。
原创
发布博客 2024.09.03 ·
383 阅读 ·
6 点赞 ·
0 评论 ·
4 收藏

AI学习记录 - 线性代数(3Blue1Brown)

一天更新一点点,只更新重点内容,一句话定义,简单的定义,避免脑子及记太多向量的加法就是一种趋势运动向量的延长缩短,就是分量的延长缩短基向量就是在平面或者任意维度空间随便定义的一个向量多个基向量的组合可以构成其它向量两个基向量可以组合成平面的所有向量,三个基向量可以组合成空间的所有向量
原创
发布博客 2024.08.30 ·
519 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

AI学习记录 - 模型训练中怎么反向传播以及学习率的影响

500 * 0.01(学习率) = 5 (变化程度)5(原权重) + 5 (变化程度) = 10 (新权重)
原创
发布博客 2024.08.28 ·
287 阅读 ·
3 点赞 ·
0 评论 ·
3 收藏

AI学习记录 - 对抗性神经网络

学习机器学习到一定程度之后,一般会先看他的损失函数是什么,看他的训练集是什么,训练集是什么,代表我使用模型的时候,输入是什么类型的数据。对抗神经网络其实可以这样子理解,网上一直说生成器和判别器的概念,没有触及到本质。
原创
发布博客 2024.08.28 ·
441 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

AI学习记录 - 怎么理解 torch 的 torch.nn.BatchNorm2d

计算归一化是需要参考值的,因为需要知道最大值最小值,已经参与计算的数量,参考值来自于哪里呢,如下。形状为 (batch_size, num_channels, height, width)合并起来,可以看到 num_channels = 3,所以计算3次。sigmoid函数,归一化,这就有差异了,充分发挥了激活函数的作用。num_channels: 通道(什么是通道看上一章节)假设一批数字为 [3, 7, 2, 9, 4]sigmoid函数,不进行归一化。创建了个下面这样子的东西。
原创
发布博客 2024.08.26 ·
378 阅读 ·
3 点赞 ·
0 评论 ·
4 收藏

AI学习记录 - 怎么理解 torch 的 nn.Conv2d

红圈移动步伐为2(stride=2),移动红圈的时候超出了,蓝色框默认设置为全0,你也可以设置成其他数字(padding=0)
原创
发布博客 2024.08.24 ·
442 阅读 ·
9 点赞 ·
0 评论 ·
2 收藏

AI学习记录 - 如何快速构造一个简单的token词汇表

但是实际上当你训练好模型之后,就算你要求用户使用英语法语西班牙语,但是用户可能会使用其它语言去提问,不在我们上面的区间,所以我们要兼容用户输入一些其他语言,但是由于我们没有对其他语言独立给一个位置,所以当使用其他语言去跟模型提问的时候,效果可能不会很好,但我们针对的用户主要是英文法语西班牙语。”)就是获取一个字符在unicode编码世界中的一个下标,可以看到对你重要的字符都在下面,你可以随意更改上面的字符。原先已经拥有字符的下标,我们不去改它了,继续让他使用unicode编码的下标即可。
原创
发布博客 2024.08.21 ·
463 阅读 ·
4 点赞 ·
0 评论 ·
6 收藏

AI学习记录 - LSTM详细拆解

拼接词向量,前面来的,现在输入的。
原创
发布博客 2024.08.20 ·
231 阅读 ·
3 点赞 ·
0 评论 ·
0 收藏

AI学习记录 - Word2Vec 超详细解析

完整的word2Vec代码plt.show()
原创
发布博客 2024.08.19 ·
558 阅读 ·
8 点赞 ·
0 评论 ·
5 收藏

AI学习记录 - transformers 的 linear 词映射层的详细分析, CrossEntropyLoss 函数解析

词汇表:假设词汇表包含四个词汇:[token_0, token_1, token_2, token_3]。模型的输出概率分布:模型的输出经过 Softmax 转换后,得到概率分布:[0.1,0.5,0.2,0.2]
原创
发布博客 2024.08.18 ·
387 阅读 ·
7 点赞 ·
0 评论 ·
2 收藏

AI学习记录 - torch的全连接层实现

今天比较烦躁,但为了保持学习的继续,今天水一篇简单的。
原创
发布博客 2024.08.17 ·
187 阅读 ·
2 点赞 ·
0 评论 ·
0 收藏

AI学习记录 - decoder层如何与ecoder层结合

接下来讲的如下 decoder层如何与ecoder层怎么使用注意力机制结合的公式为:先生成掩码,然后把随机权重放进去,重点是这个掩码形状是固定的,负无穷大动态生成的,因为用户输入的句子长度不固定,有空余的位置我们需要填充 [PAD], [PAD], 都是负无穷大,下面红色交叉都设置成[PAD]将encoder的output的语义按照 权重 叠加到 START 和 h 上面,每次decoder的第一个token都是 START,固定的.得出新的矩阵,叠加上了输入词: abcd[PAD][PAD
原创
发布博客 2024.08.15 ·
195 阅读 ·
2 点赞 ·
0 评论 ·
0 收藏

AI学习记录 - transformers的decoder和encoder中的自注意力矩阵和掩码矩阵的数据处理

在实际计算的过程中,掩码不仅仅只是生成一半就可以了,我都知道GPT其实有限制token长度这一说法,假如限制50个token,我们最后生成的注意力矩阵就是长宽都是50个,但是当我们的句子不够50的时候,剩下的位置需要用指定字符去填充。
原创
发布博客 2024.08.15 ·
510 阅读 ·
3 点赞 ·
0 评论 ·
0 收藏

AI学习记录 - 自注意力机制之权重矩阵和查询向量V矩阵的计算方式的补充

如果我们熟悉自注意力的话,就会发现Q和K矩阵结合的时候,会有一个长度为句子长度的权重矩阵,假如有句子abc,求abc的注意力权重矩阵的话,那就是一个3*3的矩阵如下矩阵。我们假设了句子长度为3,那么V矩阵肯定也是宽为3,因为有三个词汇痲,长度为n的矩阵,假设n为5,每一行都是一个词向量。如下图直接使用矩阵乘法将这两个矩阵相称即可,得到一个一样的矩阵,这就是新的词向量。为什么使用矩阵乘法相乘就可以了呢,意义在哪里?意义:原来的abc词向量就是对应上面每一行,自注意之后变成新的词向量为a1b2b3。
原创
发布博客 2024.08.14 ·
214 阅读 ·
2 点赞 ·
0 评论 ·
2 收藏

AI学习记录 - torch 的 matmul和dot的关联,也就是点乘和点积的联系

二维矩阵点乘# 定义两个二维矩阵[3, 4]])[2, 4]])# 使用 matmul 计算展平向量的点积三维矩阵点乘# 定义两个二维矩阵[1, 2],[3, 4]],[1, 2],[3, 4]])[1, 3],[2, 4]],[1, 3],[2, 4]])# 使用 matmul 计算展平向量的点积。
原创
发布博客 2024.08.13 ·
389 阅读 ·
4 点赞 ·
0 评论 ·
4 收藏

AI学习记录 - torch 的 view 函数画图解释

假设我们一次性训练两个句子,batch_size = 2.i want a beer . // 5个tokeni want a coke . // 5个token我们的矩阵是下图的上面这个大长方块,经过view函数,切割成多个块,这是为了满足多头自注意力的计算方式。
原创
发布博客 2024.08.11 ·
254 阅读 ·
3 点赞 ·
0 评论 ·
0 收藏

AI学习记录 - 多头自注意力

多头自注意力机制解析
原创
发布博客 2024.08.11 ·
989 阅读 ·
25 点赞 ·
0 评论 ·
17 收藏
加载更多