![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
tiantiandashi
这个作者很懒,什么都没留下…
展开
-
训练网络时候在命令行指定参数
1.首先指定要传递的参数,比如batchsize和learning rateif __name__ == "__main__": import argparse p=argparse.ArgumentParser() p.add_argument("--batch_size",type=int,default=64) p.add_argument("--lr",type=float,default=0.00001) args=p.parse_args() main(args.原创 2020-09-18 18:37:05 · 477 阅读 · 0 评论 -
sklearn实现k折交叉验证的小例子
>>> import numpy as np>>> from sklearn.model_selection import KFold>>> X = np.array([[1, 2], [3, 4], [1, 2], [3, 4]])>>> y = np.array([1, 2, 3, 4])>>> kf = KFold(n_splits=2)>>> kf.get_n_splits(X)2原创 2020-08-10 16:55:30 · 817 阅读 · 0 评论 -
pytorch指定gpu以及kill掉某个进程
1. 在运行代码的时候在终端设置CUDA_VISIBLE_DEVICES=0 python train.py2.在代码中指定import osos.environ[“CUDA_VISIBLE_DEVICES”] = “0”3. set_deviceimport torchtorch.cuda.set_device(0)以上方式意味着指定使用0号GPU,官方建议使用CUDA_VISIBLE_DEVICES,不建议使用 set_device另外使用gpustat可以查看哪个用户正..原创 2020-07-24 12:25:42 · 1703 阅读 · 0 评论 -
网络训练报错RuntimeError:size mismatch, m1: [256 x 1600], m2: [1024 x 256]的解决办法
最近在用fashionMNIST跑一个网络,结果如下图想要看看用同一个网络,不同数据集之间对准确率差别,因此我把数据集换成了cifar10.除了要用到transforms.Grayscale(1)test_dataset = CIFAR10('../data/CIFAR10', train=False, download=True, transform=transforms.Compose([ transforms.Grayscale(1), transforms.ToTens原创 2020-06-10 16:33:46 · 9610 阅读 · 3 评论 -
梯度下降优化器Optimization
前言梯度下降算法是机器学习中使用非常广泛的优化算法,梯度可以理解成山坡上某一点上升最快的方向,它的反方向就是下降最快的方向。要想下山最快,那么就要沿着梯度的反方向走,最终到达山底(全局最优点)。梯度下降优化器就是为了找到最快的下山策略。目前最常用的优化器有SGD、SGD+momentum、NAG、adagrad,Adam等。1、SGD随机梯度下降算法通常还有三种不同的应用方式,它们分别是SGD、Batch-SGD、Mini-Batch SGDa.SGD是最基本的随机梯度下降,它是指每次参数更新原创 2020-06-08 12:09:22 · 1061 阅读 · 0 评论 -
手指静脉图像数据集
1.山东大学机器学习与数据挖掘实验室指静脉数据集SDUMLA-HMT Database2.马来西亚理工大学指静脉数据集 Finger Vein USM (FV-USM) DatabaseFinger Vein USM (FV-USM) DatabaseFinger Vein USM (FV-USM) Database3.香港理工大学指静脉数据集The Hong Kong Polytechnic University Finger Image Database, Version 1.04...原创 2020-06-06 16:43:07 · 5006 阅读 · 12 评论 -
关于一个7*7的卷积核可用3个3*3的卷积核代替的理解
最近在看常见网络的结构,比如AlexNet(2012),VGG(2014),GoogleNet(2014),ResNet残差网络(2015)等等,其中VGG相比AlexNet做出的三个改进:1)使用小的卷积核而不是大的(如选用三个3*3的卷积核而不是选一个7*7)2)提出了pooling的概念3)使用dropout这三个创新的地方使得VGGnet的参数大大减少,提高了识别率,但是由...原创 2020-04-15 23:39:09 · 8756 阅读 · 1 评论 -
关于triplet loss的理解
一:前言Triplet Network最常用于人脸识别的领域,利用Triplet loss来学习人脸的特征向量表示。在看本文章之前,建议先观看Andrew Ng在Coursera上的deep learning specialization的相关课程。b站链接点这里。1、介绍triplet network的网络结构如他的名字,输入是一个三元组<a,p,n>a(anchor...原创 2020-03-21 23:02:00 · 2764 阅读 · 0 评论 -
中国计算机学会推荐国际学术期刊 (计算机系统与高性能计算)
一、A类 序号 刊物简称 刊物全称 出版社 网址 1 TOCS ACM Transactions on Computer Systems ACM http://tocs.acm.org/...转载 2020-03-21 10:54:09 · 3131 阅读 · 0 评论 -
pytorch孪生网络识别面部相似度代码解读
本文章记录最近看的一个孪生网络实现人脸面部相似度的代码实例,关于孪生网络的定义,可以点击这里,该项目所使用的的网络架构为标准的卷积神经网络架构,在每个卷积层之后使用批量归一化(batch normolization),然后进行dropout。孪生网络架构的代码片段:class SiameseNetwork(nn.Module): def __init__(self): ...原创 2020-03-16 22:28:01 · 5296 阅读 · 15 评论 -
pytorch手写数字识别,MNIST数据集
import torchimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optimfrom torchvision import datasets, transformsfrom torch.autograd import Variable #training set 设置每个包中的图...原创 2019-08-30 12:22:37 · 162 阅读 · 0 评论 -
pytorch使用卷积神经网络提取图片边缘信息
import numpy as npimport torchfrom torch import nnfrom torch.autograd import Variableimport torch.nn.functional as Ffrom PIL import Imageimport matplotlib.pyplot as pltim=Image.open('./girl.j...原创 2019-08-27 22:09:06 · 3292 阅读 · 2 评论