![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 75
一只小团子
这个作者很懒,什么都没留下…
展开
-
训练集和测试集的划分
目标:得到将样本按比例划分维训练集和测试集。 dsets["source"] = ImageList(open(data_config["source"]["list_path"]).readlines(), \ transform=prep_dict["source"]) n_train = len(dsets["source"]) split = n_train // 3 indices = np.rand原创 2021-05-28 22:33:48 · 3336 阅读 · 0 评论 -
路径替换
在做实验的时候,代码下载下来,需要按照自己的路径重新生成,感觉很麻烦。然后就写了这个替换datalist路径的代码#!/usr/bin/python3.5 import os# print("input old:")# old=input()# print("input new:")# new=input()# old='/data/wq/office_caltech_10/'# new='/media/dl/code/dataset/office_caltech_10_Original_原创 2020-12-25 16:16:38 · 669 阅读 · 0 评论 -
pytorch(五)dropout
1.了解知道Dropout原理2.用代码实现正则化(L1、L2、Dropout)3.Dropout的numpy实现4.PyTorch中实现dropout一、Dropout原理作用:防止过拟合方法:训练时,随机关闭神经元2. Dropout工作流程及使用2.1 Dropout具体工作流程假设我们要训练这样一个神经网络,如图2所示。图2:标准的神经网络输入是x输出是y,正常的流...原创 2019-08-15 19:53:35 · 8401 阅读 · 2 评论 -
pytorch(七)卷积神经网络实现MNIST详解
一、卷积神经网络卷积层、池化层、全链接层卷积层:特征提取池化层:压缩卷积层=卷积+激活函数激活函数:非线性激活函数卷积神经网络:https://blog.csdn.net/Ace_Yom/article/details/47254023https://blog.csdn.net/yunpiao123456/article/details/52437794https://blog.c...原创 2019-08-20 21:19:08 · 1581 阅读 · 0 评论 -
pytorch资料整理
史上最全的PyTorch学习资源汇总:https://mp.weixin.qq.com/s/YO8hoZzOWy025LhPdBGpEAPyTorch中文文档(函数查找):https://pytorch-cn.readthedocs.io/zh/latest/60 分钟闪电战——02.自动求导:https://blog.csdn.net/m0_37991005/article/details/...原创 2019-08-11 16:46:59 · 341 阅读 · 0 评论 -
Pytorch(三)logistics 回归
一.逻辑回归简述逻辑回归实质上是线性回归,把特征线性求和(一阶)之后再使用Sigmoid函数将结果映射到[0,1]区间,得到分类结果为1的概率大小。具体表达式如下:h(w,x) =1/(1+exp(-(w*x+b)))其中x为特征向量,可以表示为[x1,x2,…,xN],的取值范围为[0,1]表示分类结果为1的概率大小。通过公式可以看出,逻辑回归可以理解为单层的全连接网络加上sigmoid激...原创 2019-08-10 14:46:27 · 485 阅读 · 0 评论 -
Pytorch(一)
1.什么是Pytorch,为什么选择Pytroch?简洁:PyTorch的设计追求最少的封装,尽量避免重复造轮子。速度:PyTorch的灵活性不以速度为代价。易用:PyTorch是所有的框架中面向对象设计的最优雅的一个。活跃的社区:PyTorch提供了完整的文档,循序渐进的指南,作者亲自维护的论坛 供用户交流和求教问题。https://blog.csdn.net/broadview200...原创 2019-08-07 21:19:08 · 590 阅读 · 0 评论 -
Pytorch(二):梯度下降
一、梯度下降的作用:https://pytorch.apachecn.org/docs/1.0/blitz_neural_networks_tutorial.html一个神经网络的典型训练过程如下:定义包含一些可学习参数(或者叫权重)的神经网络在输入数据集上迭代通过网络处理输入计算损失(输出和正确答案的距离)将梯度反向传播给网络的参数更新网络的权重,一般使用一个简单的规则:weig...原创 2019-08-09 20:56:05 · 1637 阅读 · 0 评论 -
Pytorch(六)优化器
优化器是用来干嘛的?方法=模型+策略+算法模型=logistic回归策略=损失函数算法=求解损失函数的方法,优化器核心:如何更新权重一.了解不同优化器优化器主要分为3类梯度下降、动量优化法、自适应学习率优化。主要关注各种方法如何更新权重。1、梯度下降用于更新权重的误差不同2、动量优化器用于更新当前梯度的不止是代价函数当前的梯度,而是当前梯度与前一次更新时的梯度之和。...原创 2019-08-18 21:14:34 · 182 阅读 · 0 评论 -
优化器
**版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/weixin_40170902/article/details/80092628优化器总结机器学习中,有很多优化方法来试图寻找模型的最优解。比如神经网络中可以采取最基本的梯度下降法。梯度下降法(G...转载 2019-08-18 19:02:03 · 459 阅读 · 0 评论 -
pytorch(四)神经网络部分详解
解决方案的构成:一、数据导入1、torchvision提供的数据集2、torchvision中的通用数据集ImageFolder来完成加载。3、本地数据二、构建网络模型三、损失函数和优化器四、开始训练模型五、对训练的模型预测结果进行评估一、数据导入数据导入的三种方式1、torchvision提供的数据集https://www.cnblogs.com/CATHY-MU/p/7760992.h...原创 2019-08-13 19:16:33 · 890 阅读 · 0 评论