![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
每日科研记录
文章平均质量分 61
科研碎碎念
sxy1997_bupt
这个作者很懒,什么都没留下…
展开
-
2022.6.9科研记录:PackedSequence代码示例pytorch(StackOverflow&GitHub)
科研记录PackedSequence转载 2022-06-09 11:57:11 · 205 阅读 · 0 评论 -
pytorch数据中心流量预测——数据预处理部分参考文档
1.PyTorch–用循环神经网络LSTM预测时间序列主要看他的训练模型部分代码epochs = 150for i in range(epochs): for seq, labels in train_inout_seq: #主要是这句话! optimizer.zero_grad() model.hidden_cell = (torch.zeros(1, 1, model.hidden_layer_size),原创 2022-03-30 11:32:32 · 2620 阅读 · 2 评论 -
2022.3.7科研记录
2022.3.7科研记录1.T-LSTM文章在这里:Patient Subtyping via Time-Aware LSTM Networkschrome-extension://ikhdkkncnoglghljlkmcimlnlhkeamad/pdf-viewer/web/viewer.html?file=http%3A%2F%2Fbiometrics.cse.msu.edu%2FPublications%2FMachineLearning%2FBaytasetal_PatientSubtypi原创 2022-03-07 19:31:44 · 956 阅读 · 1 评论 -
2022.3.4科研记录
2022.3.4科研记录杂七杂八的觉得有用的链接1.有关独热编码独热编码的优点为:1.能够处理非连续型数值特征。2.在一定程度上也扩充了特征。比如性别本身是一个特征,经过one hot编码以后,就变成了男或女两个特征。当然,当特征类别较多时,数据经过独热编码可能会变得过于稀疏。↑这是个问题,数据中心server数量太多,在我的项目里如何解决src mac 和dst mac这两个特征的类别过多问题。↓这是原博主给出的独热编码的代码from sklearn import preprocess原创 2022-03-04 17:49:17 · 531 阅读 · 0 评论 -
2022.3.3科研记录
2022.3.3科研记录《pytorch深度学习入门》曾芃壹第五章 序列转序列模型5.1循环神经网络模型3.RNN实例import torchfrom torch import nnimport numpy as npimport matplotlib.pyplot as pltsteps = np.linspace(0, np.pi*2, 100, dtype=np.float32)input_x = np.sin(steps)target_y = np.cos(steps)pl原创 2022-03-03 11:37:40 · 691 阅读 · 0 评论 -
2022.2.28科研记录
2022.2.28科研记录《pytorch深度学习入门》曾芃壹ch.3深度学习基础3.2线性回归8.人工神经元import torch# import matplotlib.pyplot as plt #不画图可以不选择from torch import nn,optim # pytorch的nn模块是神经网络的缩写from time import perf_counterx = torch.unsqueeze(torch.linspace(-3,3,100000),dim=1) #原创 2022-02-28 17:12:37 · 525 阅读 · 0 评论 -
2022.2.27科研记录
2022.2.27科研记录1.《pytorch深度学习入门》曾芃壹ch3.深度学习基础3.2线性回归①其他知识Epoch(时期):当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一次epoch。(也就是说,所有训练样本在神经网络中都 进行了一次正向传播和一次反向传播 )再通俗一点,一个Epoch就是将所有训练样本训练一次的过程。然而,当一个Epoch的样本(也就是所有的训练样本)数量可能太过庞大(对于计算机而言),就需要把它分成多个小块,也就是就是分成多个Batch 来进行训练。原创 2022-02-27 20:54:40 · 586 阅读 · 0 评论