![](https://img-blog.csdnimg.cn/20190918140213434.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
机器与深度学习自学
文章平均质量分 92
从0开始学习深度学习
病树前头
这个作者很懒,什么都没留下…
展开
-
Transformer学习(5)
Transformer学习(5)原创 2024-06-05 17:13:51 · 590 阅读 · 0 评论 -
Transformer学习(4)
Transformer学习(4)原创 2024-06-05 16:23:58 · 1036 阅读 · 0 评论 -
Transformer学习(3)
Transformer学习(3)原创 2024-06-04 17:31:09 · 556 阅读 · 0 评论 -
Transformer学习(2)
Transformer学习(2)原创 2024-06-04 09:09:23 · 1029 阅读 · 0 评论 -
Transformer学习(1)
Transformer学习(1)原创 2024-05-31 16:22:57 · 774 阅读 · 0 评论 -
CUDA学习(2)
CUDA学习(2)原创 2024-05-30 20:15:04 · 759 阅读 · 0 评论 -
GPU学习(3)
GPU学习(3)原创 2024-05-30 19:56:46 · 1011 阅读 · 0 评论 -
GPU学习(2)
GPU学习(2)原创 2024-05-30 17:10:13 · 872 阅读 · 0 评论 -
GPU学习(1)
GPU学习(1)原创 2024-05-30 16:52:50 · 804 阅读 · 0 评论 -
CUDA学习(1)
CUDA学习(1)原创 2024-05-30 16:20:06 · 890 阅读 · 0 评论 -
BERT模型学习(1)
BERT模型学习(1)原创 2024-05-30 15:54:13 · 570 阅读 · 0 评论 -
Transformer模型学习(1)
Transformer模型学习(1)原创 2024-05-30 15:27:18 · 820 阅读 · 0 评论 -
Logits——(待完善)
所以,事件A:掷出点数为1的概率为:P=1/6。Odds(A)= 发生事件A次数 / 其他事件的次数(即不发生A的次数) (公式3)换句话说,事件A的Odds 等于 事件A出现的次数 和 其它(非A)事件出现的次数 之比;概率P(A)和Odds(A)的值域是不同的。Odds(A)= 发生事件A的概率 / 不发生事件A的概率 (公式2)P(A) = 发生事件A的次数 / 所有事件的次数。相比之下,事件A的概率 等于 事件A出现的次数 与 所有事件的次数 之比。1. 什么是logits?原创 2023-12-04 08:58:47 · 1039 阅读 · 0 评论 -
深度学习相关
(这篇博客作者写得很通俗易懂)受到人类注意力的启发,将注意力机制引入计算机视觉模型后可以模拟人类视觉系统,能够将输入图像特征的权重进行动态调整。将模型的注意力转移到图像中最重要的区域,并且忽视无关部分的方法称为注意力机制。人类的视觉系统使用注意力来帮助高效、有效地分析和理解复杂场景,这反过来又激励了研究人员将注意力机制引入计算机视觉系统,以提高模型的性能。在视觉系统中,注意力机制可以被视为一个动态的选择过程,根据输入图像的重要性,通过自适应加权来实现。(这篇文章评价和展望都不错)原创 2023-11-30 14:46:43 · 786 阅读 · 0 评论