pytorch
文章平均质量分 60
qq斯国一
长长长长长长长理菜鸟一名
展开
-
动手学深度学习在线课程
github动手学深度学习在线课程原创 2021-04-10 17:24:48 · 245 阅读 · 0 评论 -
Vscode CommandNotFoundError: Your shell has not been properly configured to use ‘conda activate‘.
Vscode CommandNotFoundError: Your shell has not been properly configured to use ‘conda activate’.搬砖,亲测可用第一步:在VScode powershell comdline中执行conda init后重启vscode,出现错误无法加载文件******.ps1,因为在此系统中禁止执行脚本,这是这个信息可以先不管进行下一步就行。第二步:通过Win10开始菜单进入PowerShell(管理员),输入命令set-转载 2021-01-29 11:36:50 · 307 阅读 · 0 评论 -
2021-01-21
[i] lenshuffle 打乱小量 lodaer原创 2021-01-21 16:48:40 · 89 阅读 · 0 评论 -
PyTorch深度学习实践 7.处理多维特征的输入
多维数据集糖尿病分类每行叫做sample或record(数据库叫法)每列叫做feature或字段(数据库叫法)sklearnlogistic多维特征logistic mini-batch转换成矩阵运算,向量化运输,可以并行,充分利用CPU或GPU,提高速度多层logistic矩阵是一个空间变换函数8–>2–>18–>24–>12–>1层数越多,学习能力越强,但可能强到把噪声学到了需要的能力 泛化比较好1.读文档能力2.架构能力CPU架构主机原创 2021-01-21 00:17:31 · 249 阅读 · 0 评论 -
PyTorch深度学习实践 6.逻辑斯蒂回归-->logistic regression
分类文体分类和回归不同,没有谁大谁小的问题,找出谁的概率大,就按哪一类处理torchvision.datasets有管理数据集的功能mnistcifarsigmoid分布差异的计算KL散度和交叉熵CrossEntropy(交叉熵越大越好,即越接近。BCE加了负号,越小越好)BCE BinaryCrossEntropyLoss 二进制交叉熵损失BCELoss二分类任务时的交叉熵计算函数。用于测量重构的误差, 例如自动编码机. 注意目标的值 t[i] 的范围为0到1之间.t原创 2021-01-20 23:08:55 · 150 阅读 · 0 评论 -
深度学习的19种损失函数
损失函数通过torch.nn包实现基本用法criterion = LossCriterion() #构造函数有自己的参数loss = criterion(x, y) #调用标准时也有参数19种损失函数L1范数损失 L1Loss计算 output 和 target 之差的绝对值。torch.nn.L1Loss(reduction=‘mean’)参数:reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。均方误差损失转载 2021-01-20 21:21:54 · 2565 阅读 · 0 评论 -
PyTorch深度学习实践 5.用PyTorch实现线性回归
ningmengshuxiawo Nishkiyama 灰信网原创 2021-01-20 16:05:53 · 103 阅读 · 0 评论 -
PyTorch深度学习实践 4.反向传播
文章目录两层计算图反向传播exercise两层计算图反向传播import numpy as npimport matplotlib.pyplot as pltimport torchx_data = [1.0,2.0,3.0]y_data = [2.0,4.0,6.0]w = torch.Tensor([1.0])#初始权值w.requires_grad = Truedef forward(x): return x * wdef loss(x,y): y_p原创 2021-01-20 14:36:15 · 91 阅读 · 0 评论 -
pytorch 1.6
Linux and Windows# CUDA 9.2conda install pytorch==1.5.1 torchvision==0.6.1 cudatoolkit=9.2 -c pytorch# CUDA 10.1conda install pytorch==1.5.1 torchvision==0.6.1 cudatoolkit=10.1 -c pytorch# CUDA 10.2conda install pytorch==1.5.1 torchvision==0.6.1 cu原创 2020-11-08 23:15:09 · 230 阅读 · 0 评论 -
PyTorch深度学习实践 3.梯度下降算法-->mini-batch stochastic gradient descent
分治法w1和w2假设横竖都是64横竖都分成4份,一共16份。第一次在这16份里,找出比较小的点,再来几轮,基本就OK了。从原来的16x16变成了16+16贪心法梯度下降法,局部最优,实际上,大家发现神经网络里并没有很多的局部最优点鞍点g=0,无法迭代了指数加权均值,更平滑一定要收敛,发散说明失败了,可能是学习率太大随机梯度下降,可以克服鞍点梯度下降可以并行,快随机梯度下降,只能串行,慢,但可以克服鞍点折中批量随机梯度下降batch...原创 2021-01-19 17:58:34 · 447 阅读 · 0 评论 -
PyTorch深度学习实践 2.线性模型
PyTorch深度学习实践(二)线性模型DataSet#mermaid-svg-H5jUtzzcWCpjH8D2 .label{font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family);fill:#333;color:#333}#mermaid-svg-H5jUtzzcWCpjH8D2 .label text{fill:#333}#mermaid-svg-H5jUtzzcWCpjH8D2 .node原创 2021-01-19 17:01:03 · 175 阅读 · 1 评论