深度学习/神经网络基础讲解
文章平均质量分 96
羊小猪~~
探索C/C++,ai算法,go的世界,在迷茫中寻找“光芒”
展开
-
深度学习项目----用LSTM模型预测股价(包含LSTM网络简介,代码数据均可下载)
当然,结合案例实战,看代码是如何构建神经网络的才是最重要的,下面就是一个股价预测案例,核心是在于怎么构建LSTM网络结构,怎么进行前向传播。原创 2024-10-01 16:53:07 · 1360 阅读 · 0 评论 -
深度学习基础案例7--马铃薯病识别,对VGG16进行轻量级优化,计算量减少了99%,但是准确率下降4%
vgg16是CNN卷积神经网络的经典架构,它拥有13层卷积,3层池化构成,下图是本人第一次画的神经网络🤠🤠🤠🤠。原创 2024-09-25 23:05:55 · 999 阅读 · 0 评论 -
深度学习基础--11个专题带你入门Pytorch下篇(包括自动微分、模型保存、使用深度学习构建线性回归案例等)
make_regression() 作用:用来随机生成回归数据n_samples:数据集中样本的数量。n_features:每个样本的特征数量。n_informative:在生成的特征中,有多少个是真正影响目标变量的。n_targets:目标变量的数量,可以用于多元回归。bias:在目标变量中添加的常数偏置。effective_rank:如果指定,创建低秩矩阵来模拟相关性。tail_strength:控制权重衰减的强度。noise:在目标变量中添加的高斯噪声的标准差。原创 2024-08-28 12:50:02 · 1233 阅读 · 0 评论 -
深度学习基础--11个专题带你入门Pytorch上
在pytorch中创建张量,是存储在整块内存中的,而使用transpose 和 permute 函数后,返回的张量是由不同的数据块组成了(可以由is_contiguous判断是否由一整内存快组成)组成的,并没有存储在整块的内存中,view函数无法对这样的张量进行变形处理,例如:一个张量经过了 transpose 或者 permute 函数处理后就无法通过view函数进行形状操作。,将其转换成指定的形状,在后面的神经网络学习中,会经常使用该函数来调整数据的形状,用来适配不同网络层之间的数据传递。原创 2024-08-27 19:21:02 · 1158 阅读 · 0 评论