《PyTorch深度学习实践》刘二大人
文章平均质量分 69
学习记录
玫川绔紫
啊啊啊啊啊啊啊
展开
-
《PyTorch 深度学习实践》第13讲 循环神经网络(高级篇)
根据名字中的字符来预测其是哪个语言地区:如"Nasikovsky"这个名字一看就是念什么什么斯基,立即推!这个人很可能就是俄语地区。我们的模型结构:双向循环神经网络(Bidirectional Recurrent Neural Network,BiRNN)是一种常见的循环神经网络结构。与传统的循环神经网络只考虑历史时刻的信息不同,双向循环神经网络不仅考虑历史时刻的信息,还考虑未来时刻的信息。在双向循环神经网络中,输入序列可以被看作是由两个部分组成的:正向和反向。在正向部分中,输入数据从前往后进行处理,而在反原创 2023-04-27 23:24:07 · 1643 阅读 · 8 评论 -
《PyTorch 深度学习实践》第12讲 循环神经网络(基础篇)
RNN是循环神经网络(Recurrent Neural Network)的缩写。它是一种神经网络结构,可以处理序列数据,例如时间序列数据或自然语言文本数据。相比于传统的前馈神经网络,RNN可以利用当前的输入和之前的状态来决定当前的输出,因此它可以捕捉到序列数据中的时间依赖关系。在RNN中,每个时间步都有一个隐藏状态(hidden state),这个隐藏状态可以捕捉到之前时间步的信息,并且会在当前时间步中被用于计算输出。原创 2023-04-23 14:40:04 · 1344 阅读 · 1 评论 -
《PyTorch 深度学习实践》第11讲 卷积神经网络(高级篇)
GoogleNet(又称为Inception-v1)是由谷歌公司在2014年提出的一个卷积神经网络架构,它是当时ImageNet图像识别挑战赛的冠军,其准确性超过了以往所有的卷积神经网络架构。GoogleNet主要的创新在于使用了一个名为“Inception”的模块,这个模块使用了多个不同尺寸的卷积核和池化核,从而可以在不同的尺度上提取图像特征。通过将多个Inception模块串联在一起,可以构建一个非常深的卷积神经网络,同时保持计算效率和准确性。除了Inception模块之外,GoogleNet还采用了一原创 2023-04-17 20:11:33 · 563 阅读 · 1 评论 -
《PyTorch 深度学习实践》第10讲 卷积神经网络(基础篇)
如果步长大于1,则卷积核每次向右移动的像素数会相应增加,这会导致输出特征图的尺寸变小,因为每个卷积核的感受野(receptive field)覆盖的像素数减少。以下图为例,为了使输出数据的形状和输入数据一样也为 5 × 5 ,而我们的卷积核形状为 3 × 3 的,这时可以在输入数据中外围填充一圈0,即可达到目的。因此,我们可以通过调整卷积核的形状、填充方式、步长等参数,来控制卷积层的输出形状和大小,以适应不同的输入数据和模型需求。以下图为例,输入数据为n×w×h,卷积层中有m个卷积核,要进行卷积计算,原创 2023-04-16 00:30:59 · 634 阅读 · 0 评论 -
《PyTorch 深度学习实践》第9讲 多分类问题(Kaggle作业:otto分类)
该代码是一个简单的 PyTorch 神经网络模型,用于分类 Otto 数据集中的产品。这个数据集包含来自九个不同类别的93个特征,共计约60,000个产品。代码的执行分为以下几个步骤1.数据准备:首先读取 Otto 数据集,然后将类别映射为数字,将数据集划分为输入数据和标签数据,最后使用 PyTorch 中的 DataLoader 将数据集分成多个小批量。2.构建模型:构建了一个简单的四层全连接神经网络,输入层有93个特征,输出层有9个类别。3.构建损失和优化器。原创 2023-04-13 16:19:54 · 766 阅读 · 2 评论 -
《PyTorch 深度学习实践》第8讲 加载数据集(作业:泰坦尼克号生存预测)
操作,准确率不是重点。因为准确率很大一部分依赖于数据处理、特征工程,为了方便我这里就直接把字符型数据删去了(实际中不能简单删去)。下面只加载train.csv,并把其划分为。,最后测试模型在验证集上的准确率,就不去预测网站提供的测试集了,因为还得提交才知道分数。竟然才这么点准确率,我宣布这个模型得不到我的认可。不进行数据预处理果然很烂!原创 2023-04-11 00:35:38 · 323 阅读 · 0 评论 -
《PyTorch 深度学习实践》第7讲 处理多维特征的输入
上面图像竟然是这样!刚开始epoch只随便设置几千,普普通通没啥意思。后面想着搞点大的,随着次数增多,损失在40000时附近迅速下降,神奇。原创 2023-04-07 00:34:04 · 170 阅读 · 0 评论 -
《PyTorch 深度学习实践》第6讲 逻辑斯谛回归
如果进行10000轮更新,得出的参数如上。用此模型预测:当学习时间为4h时,考试通过的概率为0.9988。原创 2023-04-05 15:36:55 · 110 阅读 · 0 评论 -
《PyTorch 深度学习实践》第5讲 用PyTorch实现线性回归
【代码】P5 用PyTorch实现线性回归。原创 2023-04-05 00:55:24 · 90 阅读 · 0 评论 -
《PyTorch 深度学习实践》第4讲 反向传播
只有一个元素的tensor才能使用.item()转换成标量,否则的话使用.tolist()原创 2023-04-02 13:50:13 · 83 阅读 · 0 评论 -
《PyTorch 深度学习实践》第3讲 梯度下降算法
【代码】P3 梯度下降算法。原创 2023-04-02 13:45:15 · 125 阅读 · 0 评论 -
《PyTorch 深度学习实践》第2讲 线性模型
再回源代码中上面34行处写if语句,当索引为475时输出对应的w b,重新运行。以上可以发现w=2时均方误差MSE最小。原创 2023-04-02 13:35:17 · 149 阅读 · 0 评论