- 博客(35)
- 收藏
- 关注
原创 5月26日复盘-自注意力机制
本文介绍了自注意力机制(Self-Attention Mechanism)的原理和应用。该机制通过查询(Query)、键(Key)、值(Value)三个向量来捕捉序列数据中的长距离依赖关系,解决了传统RNN/LSTM模型的并行计算和梯度消失问题
2025-05-26 17:19:08
1221
原创 5月13日复盘
在 LSTM 网络中,初始化隐藏状态 (h0) 和细胞状态 (c0) 是一个重要的步骤,确保模型在处理序列数据时有一个合理的起始状态。1:指的是 LSTM 的层数。如果num_layers> 1,那么这里应该是num_layers。x.size(1):表示批次的大小 (batch_size这是输入x的第二个维度,因为x的形状为。:表示 LSTM 隐藏层的单元数,即隐藏状态和细胞状态的维度。在 PyTorch 中,使用 LSTM (长短期记忆网络) 进行序列数据的处理时,调用out和(hn, cn)。
2025-05-13 17:19:21
1130
原创 3月31日复盘
OpenCV(开放源代码计算机视觉库)是一个开源的计算机视觉和机器学习软件库。由一系列 C++ 类和函数构成,用于图像处理、计算机视觉领域的算法实现。
2025-03-31 18:46:37
972
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人