![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
基本语法
YXHPY
这个作者很懒,什么都没留下…
展开
-
Python中的持久化数据方案
前言Python中不管你是list,str,dict等数据,我们都只能在内存中使用,一旦软件发生意外,或数据未及时保存,就会导致我们的数据无法恢复,于是我们这节准备了3个持久化数据的方案,其中包括一些python的进阶用法什么?Print也能用来存储?Input读取?是的你没有看错,在普通的教程中print我们只是用来打印输出的,而input是用来输入的,而用于数据的持久化中可以用来存储数据演示a = { 'name': 'yxhpy', 'age': 21, 'pay': 60原创 2020-09-01 14:33:30 · 2192 阅读 · 0 评论 -
PyTorch使用教程-PyTorch数据读取
PyTorch使用教程-PyTorch数据读取前言PyTorch作为一款深度学习框架,已经帮助我们实现了很多很多的功能了,包括数据的读取和转换了,那么这一章节就介绍一下PyTorch内置的数据读取模块吧模块介绍pandas 用于方便操作含有字符串的表文件,如csvzipfile python内置的文件解压包cv2 用于图片处理的模块,读入的图片模块为BGR,N H W Ctorchvision.transforms 用于图片的操作库,比如随机裁剪、缩放、模糊等等,可用于数据的增广,但也不仅限原创 2020-08-29 16:00:38 · 3680 阅读 · 1 评论 -
PyTorch使用教程-超详细PyTorch实现手写数字识别器
超详细PyTorch实现手写数字识别器前言深度学习中有很多玩具数据,mnist就是其中一个,一个人能否入门深度学习往往就是以能否玩转mnist数据来判断的,在前面很多基础介绍后我们就可以来实现一个简单的手写数字识别的网络了数据的处理我们使用pytorch自带的包进行数据的预处理import torchimport torchvisionimport torchvision.transforms as transformsimport numpy as npimport matplotlib原创 2020-08-28 23:02:43 · 5170 阅读 · 0 评论 -
PyTorch使用教程-PyTorch构建神经网络(下)
PyTorch使用教程-PyTorch构建神经网络(下)前言上节我们使用了PyTorch自己组建了一个线性回归模型,并且我们自己实现了一个网络和优化,如果这些你都了解了那这节我们就能顺其自然的使用PyTorch给我们的封装来实现一个简单的DNN模型了网络模型一个简单的DNN应该有这三部分组成输入,隐藏,输出层有个好玩的游乐场可以自己组件DNN来拟合数据,其中的超参数有:Learning rate:学习率,上节有讲到Activation:激活函数,其作用让模型具有拟合非线性数据的能力Re原创 2020-08-28 16:52:18 · 1177 阅读 · 2 评论 -
PyTorch使用教程-PyTorch构建神经网络(上)
PyTorch使用教程-PyTorch构建神经网络(上)前言我们已经了解到了Pytorch的基本用法,以及自动求导的使用,有了这些预备知识我们已经可以做一个最简单的逻辑回归模型了准备最简单的回归模型莫过于二元一次模型了y = w * x + b自定义准备w和b,我们要做的就是学习样本数据,然后反推出w和b的值,但是不一定是最准确的,但我们要尽可能找到最优的输入,使用均匀分布的100个0-1的随机数x = torch.rand(100, 1)输出,由于我们模拟真实环境,因此偏置上我们再随机原创 2020-08-28 14:13:34 · 1203 阅读 · 0 评论 -
PyTorch使用教程-导数应用
在这里插入代码片原创 2020-08-28 10:55:19 · 761 阅读 · 1 评论 -
PyTorch使用教程-安装与基本使用
PyTorch使用教程-安装与基本使用什么要学习PyTorch?有的人总是选择,选择的人最多的框架,来作为自己的初学框架,比如Tensorflow,但是大多论文的实现都是基于PyTorch的,如果我们要深入论文的细节,就必须选择学习入门PyTorch安装PyTorch一行命令即可 官网pip install torch===1.6.0 torchvision===0.7.0 - https://download.pytorch.org/whl/torch_stable.html时间较原创 2020-08-28 07:46:01 · 9750 阅读 · 5 评论