![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
lstm
文章平均质量分 76
weixin_40293999
前几年web后端,后来AI深度学习,会一些运维。 AI聚焦于CV领域,熟悉nlp
展开
-
pytorch和torchtext的对应关系
ref:https://pypi.org/project/torchtext/0.14.0/原创 2024-05-24 12:12:54 · 400 阅读 · 0 评论 -
【深度学习】知识点归纳总结-for 面试【自用】
首先,解码器输入一个特殊的单词,即句子开头的单词对应的词向量(这个特殊的单词一般标记为<SOS>,即Start Of Sentence),输出第一个预测的单词。前两个张量(Q,K)的作用根据查询张量获取每个键张量的对应的分数,然后根据分数计算出对应的权重,用得到的权重乘以值(V)张量,并对值张量加权平均,最后输出结果。通过在编码器的输出和下一步的输入中引入上下文的信息,最后达到让解码器的某一个特定的解码和编码器的一些输出关联起来,即对齐(Alignment)的效果。所以相较于LSTM,他的计算量是增加的。原创 2024-03-05 11:34:18 · 432 阅读 · 0 评论 -
【深度学习】- NLP系列文章之 1.文本表示以及mlp来处理分类问题
torch 是做张量计算的框架,张量只能存储数字类型的值,因此无论啥样的文本(中文、英文)都不能直接用张量表示,这就引出了文本数据的表示问题,如何表示文本数据?每个较小的文本单元称为token,将文本分解成token的过程称为分词(tokenization)。词向量表示方式依赖于单词的使用习惯,这就使得具有相似使用方式的单词具有相似的表示形式。是单词的一种数值化表示方式,一般情况下会将一个单词映射到一个高维的向量中(词向量)one-hot(独热)编码和词嵌入是将token映射到向量最流行的两种方法。原创 2023-09-13 21:00:07 · 511 阅读 · 0 评论 -
【LSTM】多因素单步骤预测-keras 2
基于时间序列的预测,一定要明白它的原理,不是工作原理,而是工程落地原因。基于时间序列,以已知回归未知----这两句话是分量很重的。多因素单步单输出组合时间序列:t=1 是 特征 1,2,3 预测t=2 的回归值41多因素单步多输出组合时间序列:t=1 是 特征 1,2,3 预测t=2 的回归值1 41 回归值2 xxxx所以在看lstm git项目的时候,通常会有一个充足数据集的过程:叫做 构造多元监督学习型数据实际就是完成数据的重新错位分配,原始数据是。原创 2023-02-24 16:06:53 · 1341 阅读 · 3 评论 -
【LSTM】LSTM预测股票价格--单因素、多步、输出单步回归特征 -keras 1
LSTM是一个处理时序关联的数据模型,这里不分析它的前世今生,RNN->LSTM->BiLSTM 等等,原理很容易懂,但是从工程上搞一搞,说一说我的体会。希望学完这篇文章,你和我一样能够学会:1.LSTM的超参数有哪些?2.LSTM的推理如何使用?以上就是我对LSTM的总结,需要数据集的请留言。并且到处一份可运行的代码。原创 2023-01-10 20:00:03 · 3448 阅读 · 7 评论