Pytorch
文章平均质量分 88
HHVic
网络
展开
-
一步步读懂Pytorch Chatbot Tutorial代码(五) - 定义模型
文章目录自述有用的工具代码出处目录头更大了代码及说明 Define ModelsEncoderEncoderforwardDecoderdot_socreforward自述我是编程小白,别看注册时间长,但从事的不是coding工作,为了学AI才开始自学Python。平时就是照着书上敲敲代码,并没有深刻理解。现在想要研究chatbot了,才发现自己的coding水平急需加强,所以开这个系列记录自己一行行扣代码的过程。当然这不是从0开始的,只是把自己不理解的写出来,将来也可以作为资料备查。最后还要重申一原创 2021-12-03 22:04:55 · 922 阅读 · 0 评论 -
一步步读懂Pytorch Chatbot Tutorial代码(四) - 为模型准备数据
文章目录自述有用的工具代码出处目录头大代码 Prepare Data for Models参数追踪inputVar自述我是编程小白,别看注册时间长,但从事的不是coding工作,为了学AI才开始自学Python。平时就是照着书上敲敲代码,并没有深刻理解。现在想要研究chatbot了,才发现自己的coding水平急需加强,所以开这个系列记录自己一行行扣代码的过程。当然这不是从0开始的,只是把自己不理解的写出来,将来也可以作为资料备查。最后还要重申一下,我没有系统学过编程,写这个系列就是想突破自己,各位原创 2021-12-03 11:20:43 · 1492 阅读 · 0 评论 -
一步步读懂Pytorch Chatbot Tutorial代码(三) - 创建字典
文章目录自述有用的工具代码出处目录代码 Load and trim data类 class_ _ init _ _ 初始化实例变量for word in sentence.split(' ')自述我是编程小白,别看注册时间长,但从事的不是coding工作,为了学AI才开始自学Python。平时就是照着书上敲敲代码,并没有深刻理解。现在想要研究chatbot了,才发现自己的coding水平急需加强,所以开这个系列记录自己一行行扣代码的过程。当然这不是从0开始的,只是把自己不理解的写出来,将来也可以作为资原创 2021-11-25 21:13:26 · 1563 阅读 · 0 评论 -
一步步读懂Pytorch Chatbot Tutorial代码(二) - 数据处理
文章目录自述代码出处目录代码 Create formatted data file (为了方便理解,把代码的顺序略微改一下)1. `loadLines` 将文件的每一行拆分为一个字段字典(lineID、characterID、movieID、character、text)encoding='iso-8859-1'values的值:(删掉‘+++$+++’)enumerate修改字典lines[lineObj['lineID']] = lineObj2. `loadConversationsloadLine原创 2021-11-20 15:45:21 · 988 阅读 · 0 评论 -
一步步读懂Pytorch Chatbot Tutorial代码(一) - 加载和预处理数据
文章目录自述代码来源1. Preparations1)from _ _ future _ _ import2. Load & Preprocess Data1) os.path.join函数2)def自定义函数3)with open as 读写文件自述我是编程小白,别看注册时间长,但从事的不是coding工作,为了学AI才开始自学Python。平时就是照着书上敲敲代码,并没有深刻理解。现在想要研究chatbot了,才发现自己的coding水平急需加强,所以开这个系列记录自己一行行扣代原创 2021-11-16 11:19:55 · 1834 阅读 · 0 评论 -
Pytorch入门 - Day6
文章目录动态计算图和梯度下降入门1. Autograd的回溯机制与动态计算图1.1 可未分性相关属性1.2 张量计算图定义1.3 计算图的动态性2. 反向传播与梯度计算2.1 反向传播的基本过程2.2 反向传播运算的注意事项2.3 阻止计算图追踪2.4 识别叶节点3. 梯度下降思想3.1 最小二乘法的局限和优化3.2 梯度下降核心思想3.3 梯度下降的方向和步长3.3.1 导数和梯度3.3.2 梯度与方向4. 梯度下降的数学表示4.1 梯度下降的代数表示动态计算图和梯度下降入门1. Autograd的原创 2021-07-20 16:01:38 · 332 阅读 · 0 评论 -
Pytorch入门 - Day5
文章目录基本优化思想和最小二乘法1. 简单线性回归的机器学习建模思路回顾简单线性回归建模问题基本优化思想和最小二乘法1. 简单线性回归的机器学习建模思路回顾简单线性回归建模问题上述问题除了可以用矩阵方程求解以外, 可以转化成最优化问题,通过求解最优化问题的方法对其进行求解.总的来说, 最优化问题的转发分为两步, 其一是确定最优化数值指标, 其二则是确定优化目标函数.如果我们希望通过一条直线拟合二维平面上分布的点, 最核心的目标,毫无以为就是希望方程的预测值和真实值相差较小. 假设真实的y值用原创 2021-07-18 23:43:38 · 1320 阅读 · 9 评论 -
Pytorch入门 - Day4
文章目录张量的线性代数运算1. BLAS和LAPACK的概览2. 矩阵的形变及特殊矩阵构造方法3. 矩阵的基本运算4. 矩阵的线性代数运算矩阵的迹矩阵的秩矩阵的行列式(det)线性方程组的矩阵表达形式张量的线性代数运算也就是BLAS(Basic Linear Algeria Subprograms)和LAPACK(Linear Algeria Package)的运算.1. BLAS和LAPACK的概览这两个模块提供了完整的线性代数基本方法,由于设计到函数种类较多, 因此对其进行简单分类.具体包括:原创 2021-07-16 22:55:09 · 1305 阅读 · 2 评论 -
Pytorch入门 - Day3
文章目录张量的广播和科学运算1. 张量的广播(broadcast)特性相同形状张量的计算不同形状的张量计算标量和任意形状的张量相同维度, 不同形状的张量之间计算不同维度的张量计算过程中的广播2. 逐点运算 (Pointwise Ops)数学基本运算函数数值调整函数常用科学运算3. 规约运算4. 比较运算张量的广播和科学运算1. 张量的广播(broadcast)特性张量具备和Numpy相同的广播特性, 也就是允许不同形状张量之间进行计算相同形状张量的计算Same shapes are always原创 2021-07-15 16:19:00 · 340 阅读 · 0 评论 -
Pytorch入门 - Day2
文章目录张量的索引,分片,合并以及维度调整1. 张量的符号索引一维张量索引二维张量索引三维张量索引Tensor.view()方法2. 张量的分片函数分块:chunk函数拆分: split函数3. 张量的合并操作拼接函数cat堆叠函数stack4. 张量的维度变换squeeze函数: 删除不必要的维度unsqueeze函数: 手动升维张量的索引,分片,合并以及维度调整张量作为有序的序列,也具备数值索引的功能,并且基本索引方法和Python原生的列表, Numpy中的数组一致.不同的是Pytorch中还定原创 2021-07-14 17:11:29 · 146 阅读 · 2 评论 -
Pytorch入门 - Day1
文章目录张量(Tensor)对象,数组的衍生概念1. Tensor基本创建和类型2. 张量类型的转化隐式转化转化方法3. 张量的维度和形变1.创建高维张量张量的形变4.特殊张量的创建方法特殊取值的张量创建方法创建指定形状的数组5. 张量和其他相关类型之间的转化方法6. 张量的深copy张量(Tensor)对象,数组的衍生概念Numpy中Array提供了基础功能, 其数据结构本身不支持GPU运行,无法应对工业场景中复杂神经网络背后的大规模数值运算.1. Tensor基本创建和类型整数型的数组默认创原创 2021-07-12 17:09:33 · 162 阅读 · 6 评论