![](https://img-blog.csdnimg.cn/c9d642d4af4c4c059f9724590a30c0ee.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
文章平均质量分 62
深度学习
西笑生
西笑生
展开
-
计算机中的浮点数 - 关于浮点数的编程需要注意什么
flyfish原创 2024-06-30 13:33:39 · 293 阅读 · 0 评论 -
计算机中的浮点数 - 为什么十进制的 0.1 在计算机中是一个无限循环小数
flyfish原创 2024-06-30 13:30:00 · 1052 阅读 · 0 评论 -
计算机中的浮点数 - 二进制和十进制之间转换
flyfish原创 2024-06-30 13:28:59 · 283 阅读 · 0 评论 -
非最大值抑制(NMS)函数
flyfish原创 2024-06-27 18:03:04 · 1130 阅读 · 0 评论 -
YOLOv8中是如何实现类似将结构体作为函数参数传递
flyfish原创 2024-06-22 12:35:12 · 444 阅读 · 0 评论 -
YOLOv8目标跟踪代码BaseTrack中关于类属性的用法
flyfish原创 2024-06-20 20:05:28 · 733 阅读 · 0 评论 -
Eigen中的array() square() asDiagonal()
flyfish原创 2024-06-18 20:13:59 · 282 阅读 · 0 评论 -
Eigen中 Row-Major 和 Column-Major 存储顺序的区别
flyfish原创 2024-06-18 20:00:21 · 513 阅读 · 0 评论 -
Determinant 一个翻译很不友好的名字 行列式 det(A)
flyfish原创 2024-06-14 19:25:11 · 693 阅读 · 0 评论 -
Meta Llama 3 .transpose().contiguous().view
flyfish原创 2024-06-08 08:47:06 · 1033 阅读 · 0 评论 -
Einstein Summation 爱因斯坦求和 torch.einsum
flyfish原创 2024-06-08 08:45:57 · 704 阅读 · 0 评论 -
Meta Llama 3 RMSNorm(Root Mean Square Layer Normalization)
flyfish原创 2024-06-06 20:14:29 · 865 阅读 · 0 评论 -
Meta Llama 3 里面装饰器
flyfish原创 2024-06-06 20:11:04 · 807 阅读 · 1 评论 -
Meta Llama 3 残差结构
flyfish原创 2024-06-05 20:09:14 · 873 阅读 · 2 评论 -
Meta Llama 3 前馈层
flyfish原创 2024-06-05 20:08:54 · 1082 阅读 · 0 评论 -
Transformer的Encoder和Decoder之间的交互
flyfish原创 2024-06-05 20:07:59 · 593 阅读 · 0 评论 -
Meta Llama 3 文本编码为 token
flyfish原创 2024-06-04 20:25:34 · 986 阅读 · 0 评论 -
NeuralForecast 外生变量
flyfish原创 2024-06-04 20:23:55 · 637 阅读 · 0 评论 -
PyTorch Lightning 最简单的训练,推理,导出onnx
flyfish原创 2024-06-04 20:22:10 · 157 阅读 · 0 评论 -
Meta Llama 3 大型语言模型的超参数
flyfish原创 2024-05-31 19:03:02 · 1153 阅读 · 0 评论 -
PyTorch 加载模型出现 got an unexpected keyword argument ‘assign‘
flyfish原创 2024-05-31 19:02:01 · 314 阅读 · 0 评论 -
基于RNN和Transformer的词级语言建模 代码分析 log_softmax
flyfish原创 2024-05-30 16:20:57 · 1314 阅读 · 0 评论 -
基于RNN和Transformer的词级语言建模 代码分析 数据集的处理 Dictionary 和 Corpus
flyfish原创 2024-05-30 15:12:03 · 766 阅读 · 0 评论 -
基于RNN和Transformer的词级语言建模 代码分析 RNNModel(LSTM 和 GRU)
flyfish原创 2024-05-30 15:09:02 · 478 阅读 · 1 评论 -
基于RNN和Transformer的词级语言建模 代码分析 PositionalEncoding
flyfish原创 2024-05-30 15:06:52 · 496 阅读 · 0 评论 -
基于RNN和Transformer的词级语言建模 代码分析 _generate_square_subsequent_mask
flyfish原创 2024-05-30 15:02:40 · 631 阅读 · 0 评论 -
基于RNN和Transformer的词级语言建模 代码分析 TransformerModel
flyfish原创 2024-05-30 14:56:48 · 675 阅读 · 0 评论 -
Transformer - Self-Attention层的复杂度的计算
flyfish原创 2024-05-15 20:04:13 · 279 阅读 · 0 评论 -
Transformer - 《Attention is All You Need》中的Scaled Dot-Product Attention,为什么要Scaled
flyfish原创 2024-05-07 19:29:59 · 611 阅读 · 0 评论 -
Transformer - 编码器和解码器中的QKV分别来自哪
flyfish原创 2024-05-06 19:54:17 · 650 阅读 · 1 评论 -
Transformer - Layer Normalization
flyfish原创 2024-04-28 19:45:18 · 186 阅读 · 0 评论 -
Transformer - TokenEmbedding、 PositionalEmbedding、 TemporalEmbedding
flyfish原创 2024-04-23 19:28:57 · 673 阅读 · 0 评论 -
Transformer - 特征预处理
flyfish原创 2024-04-23 19:28:35 · 240 阅读 · 0 评论 -
Transformer - 时间特征的处理
flyfish原创 2024-04-22 20:21:29 · 247 阅读 · 0 评论 -
Transformer - Teacher Forcing
flyfish原创 2024-04-18 19:30:00 · 366 阅读 · 0 评论 -
transformer代码分析的准备工作
flyfish原创 2024-04-18 19:29:26 · 191 阅读 · 0 评论 -
Transformer - 注意⼒机制 Attention 中的 Q, K, V 解释(2)
Transformer原创 2024-04-10 10:58:10 · 802 阅读 · 0 评论 -
Multi-Head Attention 代码实现
Transformer原创 2024-04-03 19:48:13 · 939 阅读 · 0 评论 -
Transformer - 注意⼒机制 代码解释
Transformer原创 2024-04-03 19:46:46 · 709 阅读 · 0 评论 -
Transformer - Outputs(Shifted Right)
Transformer原创 2024-04-03 19:46:17 · 618 阅读 · 0 评论