- 博客(49)
- 收藏
- 关注
原创 吴恩达深度学习课程第五章第二周编程作业(pytorch实现)
文章目录前言一、词向量运算1.数据准备2.余弦相似度3.词类类比二、表情生成器V1三、表情生成器V21.构造嵌入层embedding_layer2.Dataloader3.构造LSTM4.模型训练5.实验结果前言 本博客只是记录一下本人在深度学习过程中的学习笔记和编程经验,大部分代码是参考了【中文】【吴恩达课后编程作业】Course 5 - 序列模型 - 第二周作业 - 词向量的运算与Emoji生成器这篇博客,对其代码实现了复现,但是原博客中代码使用的是tensorflow,而我在学习中主要用到的
2022-01-12 17:54:02 1917 3
原创 ubuntu服务器安装anaconda并配置pytorch环境
文章目录前言一、安装Anaconda并创建虚拟环境二、安装pytorch三、更换anaconda镜像源加速pytorch安装前言 做深度学习难免会用到实验室服务器上的GPU来跑数据,这时需要安装anaconda,创建虚拟环境并安装相应的深度学习框架(本文用到的是pytorch)。anaconda安装踩的坑比较少,每次都比较顺利,但是下载pytorch时有一些注意的事项。一、安装Anaconda并创建虚拟环境 在Anaconda官网下载linux版本: 下载完成后,我们将下载好的.sh文件
2022-01-08 16:38:28 5199 2
原创 吴恩达深度学习课程第四章第二周编程作业(pytorch实现)
文章目录前言一、问题描述二、前置知识和模型架构1.残差网络的基本知识2.模型架构二、编程实现1.Dataloader加载数据2.残差块的封装3.残差网络ResNets4.主控函数四、结果前言 本博客只是记录一下本人在深度学习过程中的学习笔记和编程经验,大部分代码是参考了【中文】【吴恩达课后编程作业】Course 4 - 卷积神经网络 - 第二周作业这篇博客,对其代码实现了复现,但是原博客中代码使用的是tensorflow,而我在学习中主要用到的是pytorch,所以此次作业我使用pytorch框架
2021-12-01 20:46:48 3583 4
原创 吴恩达深度学习课程第四章第一周编程作业(pytorch实现)
文章目录声明一、问题描述二、模型搭建1.封装dataloader2.模型封装3.主控函数三、模型测试结果声明 本博客只是记录一下本人在深度学习过程中的学习笔记和编程经验,大部分代码是参考了【中文】【吴恩达课后编程作业】Course 4 - 卷积神经网络 - 第一周作业这篇博客,对其代码实现了复现,但是原博客中代码使用的是tensorflow,而我在学习生活中主要用到的是pytorch,所以此次作业我使用pytorch框架来完成。代码或文字表述中还存在一些问题,请见谅,之前的博客也是主要参考这个大佬
2021-11-28 11:58:14 2678 6
原创 pytorch基础(八):Dataloader的简单使用
文章目录前言一、构造数据类Dataset二、使用Dataloader总结前言 本系列主要是对pytorch基础知识学习的一个记录,尽量保持博客的更新进度和自己的学习进度。本人也处于学习阶段,博客中涉及到的知识可能存在某些问题,希望大家批评指正。另外,本博客中的有些内容基于吴恩达老师深度学习课程,我会尽量说明一下,但不敢保证全面。一、构造数据类Dataset 要想使用Dataloader,我们需要构造一个适用于待解决问题的一个数据类,该数据类必须继承Dataset,下面是一个简单的例子:f
2021-11-26 15:03:40 1683
原创 pytorch基础(七):卷积层的使用torch.nn.Conv2d和torch.nn.Conv1d
文章目录前言一、前置知识二、torch.nn.Conv2d三、torch.nn.Conv1d前言 本系列主要是对pytorch基础知识学习的一个记录,尽量保持博客的更新进度和自己的学习进度。本人也处于学习阶段,博客中涉及到的知识可能存在某些问题,希望大家批评指正。另外,本博客中的有些内容基于吴恩达老师深度学习课程,我会尽量说明一下,但不敢保证全面。一、前置知识 上图就是一个多过滤器(过滤器也被称作为卷积核)卷积层的操作,输入为(6,6,3)的矩阵,输出为(4,4,2)的矩阵。 对于输
2021-11-26 14:20:00 3649 1
原创 pytorch基础(六):torch.nn.Softmax和torch.nn.CrossEntropyLoss
文章目录前言一、问题描述二、torch.nn.Softmax三、torch.nn.CrossEntropyLoss总结前言 本系列主要是对pytorch基础知识学习的一个记录,尽量保持博客的更新进度和自己的学习进度。本人也处于学习阶段,博客中涉及到的知识可能存在某些问题,希望大家批评指正。另外,本博客中的有些内容基于吴恩达老师深度学习课程,我会尽量说明一下,但不敢保证全面。一、问题描述 用完成吴恩达老师的课后训练时,要求使用softmax层完成一个多分类,pytorch框架有封装好的sof
2021-11-26 10:49:36 2605
原创 pytorch基础(五):torch.nn.Linear的工作原理
文章目录前言一、吴恩达深度学习视频二、torch.nn.Linear前言 本系列主要是对pytorch基础知识学习的一个记录,尽量保持博客的更新进度和自己的学习进度。本人也处于学习阶段,博客中涉及到的知识可能存在某些问题,希望大家批评指正。另外,本博客中的有些内容基于吴恩达老师深度学习课程,我会尽量说明一下,但不敢保证全面。提示:以下是本篇文章正文内容,下面案例可供参考一、吴恩达深度学习视频 相信很多人深度学习的入门教程是吴恩达老师的深度学习视频,吴恩达老师有关线性激活的运算推导相信大家
2021-11-25 21:34:02 2780
原创 pycharm连接远程服务器
文章目录背景一、新建SFTP二、配置解释器二、使用步骤1.引入库2.读入数据总结背景 跑深度学习的model需要用到GPU加速,而自己电脑却是核显,无法使用GPU加速运算,需要连接到学校的服务器上运行代码。 pycharm专业版才支持服务器的连接,社区版不提供这个功能。假定已经安装了专业版的pycharm,而且服务器上的anaconda环境已经搭建完成。一、新建SFTP 在专业版pycharm中:Tools -> Deployment -> Configuration…
2021-11-25 20:52:12 2940 3
原创 吴恩达深度学习课程第二章第三周编程作业(pytorch实现)
文章目录声明一、问题描述二、编程实现1.加载数据集2.使用mini-batch3.利用pytorch搭建神经网络3.1 利用torch.nn简单封装模型3.2 定义优化算法和损失函数4.整体代码声明 本博客只是记录一下本人在深度学习过程中的学习笔记和编程经验,大部分代码是参考了【中文】【吴恩达课后编程作业】Course 2 - 改善深层神经网络 - 第三周作业这篇博客,对其代码实现了复现,但是原博客中代码使用的是tensorflow,而我在学习生活中主要用到的是pytorch,所以此次作业我使用p
2021-11-17 20:57:01 2676 2
原创 pytorch基础(四):使用optim优化函数
文章目录前言一、问题描述二、官方文档代码三、optimizer的工作原理总结前言 本系列主要是对pytorch基础知识学习的一个记录,尽量保持博客的更新进度和自己的学习进度。本人也处于学习阶段,博客中涉及到的知识可能存在某些问题,希望大家批评指正。另外,本博客中的有些内容基于吴恩达老师深度学习课程,我会尽量说明一下,但不敢保证全面。一、问题描述 此次需要构建的神经网络其实和前几次相同,为了能更直观的理解问题,绘制了一张精美的神经网络结构图: 到目前为止,我们已经使用了numpy,te
2021-11-15 19:08:15 4589
原创 pytorch基础(三):使用nn模块构造神经网络
文章目录前言一、问题描述二、官方代码三、代码讲解1.参数初始化2.torch.nn2.1torch.nn.Relu和torch.nn.Linear2.2 神经网络参数的初始化2.3 torch.nn.Sequential2.4nn中的损失函数2.5 梯度清零2.6 参数更新总结前言 本系列主要是对pytorch基础知识学习的一个记录,尽量保持博客的更新进度和自己的学习进度。本人也处于学习阶段,博客中涉及到的知识可能存在某些问题,希望大家批评指正。另外,本博客中的有些内容基于吴恩达老师深度学习课程,
2021-11-14 20:41:37 2236
原创 pytorch报错AttributeError: ‘NoneType‘ object has no attribute ‘zero_‘
解决方案:原代码如下:with torch.no_grad(): w1 = w1 - learning_rate * w1.grad w2 = w2 - learning_rate * w2.grad # 反向传播后手动将梯度设置为零 w1.grad.zero_() w2.grad.zero_() 使用pytorch构建神经网络,在参数更新后,将梯度清0时报错: 使用"-="运算符,将代码修改为:with torch.no_grad(
2021-11-14 16:51:47 7205 1
原创 pytorch基础(二):构建简单的神经网络
文章目录前言一、使用numpy完成神经网络二、使用tensor完成神经网络三、pytorch的自动求导总结前言 本系列主要是对pytorch基础知识学习的一个记录,尽量保持博客的更新进度和自己的学习进度。本人也处于学习阶段,博客中涉及到的知识可能存在某些问题,希望大家批评指正。另外,本博客中的有些内容基于吴恩达老师深度学习课程,我会尽量说明一下,但不敢保证全面。一、使用numpy完成神经网络 在吴恩达老师深度学习前两章的每周作业中,我相信大多数人是利用numpy完成矩阵的运算。numpy自
2021-11-12 20:34:43 856
原创 pytorch基础(一):tensor张量和自动微分
文章目录前言一、pytorch入门1.什么是tensor张量2.tensor张量的基本操作二、pytorch自动微分总结前言 本系列主要是对pytorch基础知识学习的一个记录,尽量保持博客的更新进度和自己的学习进度。本人也处于学习阶段,博客中涉及到的知识可能存在某些问题,希望大家批评指正。一、pytorch入门1.什么是tensor张量 在吴恩达老师深度学习视频中,第一章和第二章的课后作业我们用numpy实现前向传播和反向传播,numpy提供的ndarray数据类型,支持numpy内置
2021-11-12 15:03:41 939
原创 吴恩达深度学习课程第二章第二周编程作业
文章目录声明一、任务描述二、编程实现1.使用的数据2.mini-batch处理数据集总结声明 本博客只是记录一下本人在深度学习过程中的学习笔记和编程经验,大部分代码是参考了【中文】【吴恩达课后编程作业】Course 2 - 改善深层神经网络 - 第二周作业这篇博客,对其代码实现了复现,代码或文字表述中还存在一些问题,请见谅,之前的博客也是主要参考这个大佬。下文中的完整代码已经上传到百度网盘中,提取码:af12。一、任务描述 这次作业我们的主要任务是以下四个:1.划分mini-batch训练
2021-11-10 15:11:26 1138 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人