深度学习
Killwaiter
这个作者很懒,什么都没留下…
展开
-
在ubuntu跑YoloV5代码
第一次使用ubuntu服务器,之前没有人这台服务器,要跑代码需要先安装Anaconda. 下载网址:Installing on Linux — Anaconda documentation原创 2021-09-16 21:12:00 · 1663 阅读 · 1 评论 -
2_训练分类器
必须处理图像,文本,音频或视频数据时,可以使用将数据加载到 NumPy 数组中的标准 Python 包。 然后,可以将该数组转换为torch.*Tensor。专门针对视觉,创建了一个名为torchvision的包,其中包含用于常见数据集(例如 Imagenet,CIFAR10,MNIST 等)的数据加载器,以及用于图像(即torchvision.datasets和torch.utils.data.DataLoader)的数据转换器。以下使用 CIFAR10 数据集。 它具有以下类别:“飞机”,“汽车原创 2021-07-28 23:20:44 · 969 阅读 · 0 评论 -
Parser-Free Virtual Try-on via Distilling Appearance Flows代码解析
从PF-AFN_test开始看1.test.shpython test.py --name demo --resize_or_crop None --batchSize 1 --gpu_ids 0参数:name,resize_or_crop,gpu_ids定义原创 2021-07-28 00:00:05 · 938 阅读 · 1 评论 -
1_神经网络
对于图片数据,一般输入的数据格式为 (样本数batch size,通道数,图片长,图片宽)class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)#输入通道,输出通道,卷积核大小,步长,补0操作class Net(nn.Module): def __init__(self): supe.原创 2021-07-25 10:26:22 · 548 阅读 · 2 评论 -
深度学习中的Epoch,Batchsize,Iterations
Epoch: 一个epoch指代所有的数据送入网络中完成一次前项计算及反向传播的过程。由于一个epoch太大我们会将它分成几个较小的batches。为什么需要多个epoch?是因为在训练的时候,将所有数据迭代训练一次是不够的,需要反复多次才能拟合收敛。在实际训练中,我们将所有数据分成几个batch,每次送入一部分数据,梯度下降本身就是一个迭代过程,所以单个epoch更新权重是不够的。下图展示了使用不同个数epoch训练导致的结果。Batch Size: batch是每次送...转载 2021-07-12 21:26:30 · 398 阅读 · 0 评论 -
深度学习(七)K近邻算法总结
1.K近邻算法可以解决多分类问题,也可以解决回归问题2.KNeighborsRegressor类用knn解决回归问题的类3.缺点: 效率低、高度数据相关、预测结果不具有可解释性、维数灾难(随着维度的增加,看似相近的两个点直接之间的距离越来越大,解决方法:降维)4.使用一个机器学习算法流程:(1)把数据集分为训练集和测试集(2)把训练数据进行归一化(3)将测试数据集进行归一化(4)把测试的数据集放入训练出来的模型中得出准确度...原创 2021-03-17 21:49:35 · 782 阅读 · 0 评论 -
深度学习(六) 测试数据集归一化
对测试数据集如何归一化呢?所以要保存训练集的均值和方差。在scikit-learn对于数据归一化封装了一个类Scaler.进行封装:import numpy as npclass StandardScaler: def __init__(self): self.mean=None self.scale=None; def fit(self,X): """根据训练数据集X获得数据的均值和方差原创 2021-03-17 21:25:23 · 2362 阅读 · 0 评论 -
深度学习(五)数据归一化
最值归一化适用于我们的数值有明显边界的情况原创 2021-03-17 20:31:24 · 343 阅读 · 0 评论 -
深度学习(四) knn 超参数
best_score=0.0#设置当前我们已经找到的准确率最好的值,初始化为0bestk_k=-1#我们找到的最好的k,初始化为-1for k in range(1,11):#我们传入10个k,看哪个k最适合鸢尾花 knn_clf=KNeighborsClassifier(n_neighbors=k) #每一次都创建一个knn_clf来调用构造函数,在构造函数里n_neighbors赋值当前循环中的k knn_clf.fit(X_train,y_train) scor...原创 2021-03-17 15:43:09 · 1193 阅读 · 0 评论 -
深度学习(三) knn 训练数据集,测试数据集
以鸢尾花为例:将上面的写到一个函数中:import numpy as npdef train_test_split(X,y,test_ratio=0.2,seed=None): """将数据 X 和 y 按照test_ratio分割成X_train, X_test, y_train, y_test""" assert X.shape[0] == y.shape[0], \ "the size of X must be equal to the ...原创 2021-03-16 21:20:50 · 1975 阅读 · 1 评论 -
2021-03-16 深度学习(二)使用scikit-learn 中的kNN
把X_train,y_train送入机器学习算法,机器学习算法训练模型的过程称为拟合(fit),也就是说我们的算法要训练模型,这个模型要能够拟合我们的数据集,把输入样例输入模型得出结果的过程称为预测(predict)....原创 2021-03-16 19:38:06 · 275 阅读 · 0 评论 -
深度学习(一) k近邻算法
一、k近邻算法概念 给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最临近的k个实例,这k个实例的多数属于某个类,就把该输入实例分类到这个类中。(这就是现实生活中少数服从多数的思想)。 ...原创 2021-02-07 21:24:26 · 337 阅读 · 0 评论