自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 资源 (1)
  • 收藏
  • 关注

原创 Python多分类问题pr曲线绘制

假设取极限,阈值为0,那么所有样本都会被预测为飞机,召回率最大,为1;同理,阈值变大,虚线上移,精确率会变高,但召回率反而变低。2、把所有样本的概率预测值从小到大排序去重,并以此数列分别为阈值,进行计算 “p" “r” 值,可以得到更多组 “p” “r” 值。我们根据预测结果只能够求出一组 “p” 值和 “r” 值,那是因为我们默认把阈值设置成了0.5,大于0.5就是正例,反之就是反例。蓝色虚线是我们设置阈值为0.5时候的分类情况,大于0.5是测试为飞机的概率,小于0.5是测试不为飞机的概率。

2022-11-04 17:25:28 1640 1

转载 单精度(float) & 双精度 (double) 区别

精度主要取决于尾数部分的位数,float为23位,除去全部为0的情况以外,最小为2的-23次方,约等于1.19乘以10的-7次方,所以float小数部分只能精确到后面6位,加上小数点前的一位,即有效数字为7位。类似,double 尾数部分52位,最小为2的-52次方,约为2.22乘以10的-16次方,所以精确到小数点后15位,有效位数为16位。原因:不管float还是double 在计算机上的存储都遵循IEEE规范,使用二进制科学计数法,都包含三个部分:符号位,指数位和尾数部分。

2022-10-23 17:42:26 1737

原创 pixel-wise,patch-wise,image-wise的含义

patch-wise介于像素级别和图像级别的区域,也就是块,每个patch都是由好多个pixel组成的,网络训练将整张图crop成了多个path。pixel-wise字面上的理解一样,一张图片是由一个个pixel组成的,这个是图像的基本单位,像素级别的;pixel-wise,patch-wise,image-wise的含义如下。image-wise图像级别,比如一张图片的标签是狗,是对整个图片的标注;

2022-10-20 16:56:05 680

原创 BASNet: Boundary-Aware Salient Object Detection代码复现

BASNet: Boundary-Aware Salient Object Detection代码复现

2022-08-26 18:06:02 1407 2

原创 Python中的assert(断言)

1.介绍assert(断言):断定此处是对的,如果错了,就返回问题。通常在测试程序时不知道哪里会出错,只有执行到最后才能看到错误信息。assert可以在条件不满足程序运行的情况下直接返回错误,而不必等待程序运行后出现崩溃的情况assert的语法格式为assert expression等价为:if not expression: raise AssertionError此处若expression为false,则会触发异常,assert的作用是用来声名某个条件为True

2022-05-30 14:12:37 4875

原创 Pytorch深度学习实践(b站刘二大人)P13讲 (RNN循环神经网络高级篇)

用RNN做一个分类器,现在有一个数据集,数据集里有人名和对应的国家,我们需要训练一个模型,输入一个新的名字,模型能预测出是基于哪种语言的(18种不同的语言,18分类)在自然语言处理中,通常先把词或字编程一个one-hot向量,one-hot向量维度高,而且过于稀疏,所以一般来说呀先通过嵌入层(Embed)把one-hot向量转化成低维的稠密向量,然后经过RNN,隐层的输出不一定和最终要求的目标一致,所以要用一个线性层把输出映射成和我们的要求一致,我们的需求是输出名字所属的语言分类,我们对01-0..

2022-01-22 13:49:36 3631 5

原创 Pytorch深度学习实践(b站刘二大人)P12讲 (RNN循环神经网络基础篇)

RNN循环神经网络:对线性层的复用DNNDense网络:稠密网络,有很多线性层对输入数据进行空间上的变换,又叫DNN输入x1,x2…xn是数据样本的不同特征Dense连接就是指全连接比如预测天天气,就需要知道之前几天的数据,每一天的数据都包含若个特征,需要若干天的数据作为输入假设现在取前3天,每一天有3个特征把x1,x2,x3拼成有9个维度的长向量,然后去训练最后一天是否有雨用全连接稠密网络进行预测,如果输入序列很长,而且每一个序列维度很高的话,对网络训练有很大挑战,因为稠密

2022-01-18 19:31:43 2875 2

原创 Pytorch深度学习实践(b站刘二大人)P11讲 (CNN卷积神经网络高级篇 作业)

constant scaling代码:import torch.nn as nnimport torchimport torch.nn.functional as Ffrom torchvision import datasetsfrom torchvision import transformsfrom torch.utils.data import DataLoaderimport matplotlib.pyplot as pltbatch_size = 64transfo...

2022-01-16 18:55:16 924

原创 Pytorch深度学习实践(b站刘二大人)P11讲 (CNN卷积神经网络高级篇)

1.GoogLeNet:蓝色的块是卷积,红色的块是池化,黄色的是softmax减少代码冗余:函数/类当网络结构复杂,对于类似或者相同的子结构,就可以把这个子结构(块)封装成一个类GoogleNet,常被用作基础主干网络,图中红色圈出的一个部分称为Inception块2. InceptionModule解析卷积核的大小:GoogleNet的下面这个块出发点是不知道多大的卷积核好用,那就在一个块里面把这几种卷积都用一下,然后把它们的结果摞到一起,如果3*3比较好用,自然而然3*3的权重..

2022-01-15 13:20:08 1608 3

原创 Pytorch深度学习实践(b站刘二大人)P10讲 (CNN卷积神经网络基础篇作业)

网络结构:代码程序:import torchfrom torchvision import transformsfrom torchvision import datasetsfrom torch.utils.data import DataLoaderimport torch.nn.functional as F # 用Relu函数import torch.optim as optim # 优化器优化batch_size = 64transform = transfo..

2022-01-12 18:43:32 935

原创 Pytorch深度学习实践(b站刘二大人)P10讲 (CNN卷积神经网络基础篇)

1.全连接网络:指的是网络里面用的都是线性层,如果一个网络全都由线性层串行连接起来,就叫做全连接网络在线性层里面输入和每一个输出值之间都存在权重,即每一个输入节点都要参与到下一层输出节点的计算上,这样的线性层也叫全连接层Fully Connected2.二维卷积神经网络工作方式卷积神经网络把图像按照原始的空间结构保存,能保留原始的空间信息(全连接过程中,把图像弄成了一串,会使原本图像中相邻的节点,距离较远)经过一个卷积层把1*28*28的图像变成4*24*24使用下采样(subs..

2022-01-10 22:07:57 1609 1

原创 PyTorch深度学习实践(b站刘二大人)P9讲 多分类问题 Softmax Classifier

1.SoftMax分类器在Mnist数据集中,我们要得到的输出是0-9,共有十类,这种情况下我们希望输出0-9的概率都大于0,且和为1。使用SoftMax分类器进行多分类问题(其输入不需要Relu激活,而是直接连接线性层),经过SoftMax分类器后满足:1.大于等于0,2.所有类别概率和为1.2.Loss function - Cross EntropyNLLLoss(nagative log likelihood loss ):右边输入Y是真实标签,另一个输入要求是 s...

2021-11-26 22:38:16 1982 10

原创 Pytorch深度学习——加载数据集(b站刘二大人)P8讲 加载数据集

1.Dataset and DataLoader(加载数据的两个工具类) dataset:构造数据集(数据集应该支持索引,能够用下标操作快速把数据拿出来) dataloader :主要目标用来拿出一个mini-batch来供训练时快速使用。2.Mini-batch 优点我们之前学过在进行梯度下降时,有两种选择:①全部的数据都用(Batch)②随机梯度下降:只用一个样本 只用一个样本可以得到比较好的随机性,可以帮助我们跨越在优化中所遇到的鞍点,而用Batch(所有数据)...

2021-11-20 16:20:25 2214

原创 PyTorch深度学习实践(刘二大人)P7 处理多维特征的输入 Multiple Dimension Input

代码如下:# 读取数据import torchimport numpy as np# np.loadtxt为读取文本文档的函数,默认分隔符为逗号,'delimiter'为分隔符#读取时用32位的浮点数xy = np.loadtxt('diabetes.csv.gz',delimiter=',',dtype=np.float32)x_data = torch.from_numpy(xy[:,:-1]) # 第一个‘:’是指读取所有行,第二个‘:’是指从第一列开始,最后一列不要y_da

2021-11-15 21:05:19 2007

原创 PyTorch深度学习实践(b站刘二大人)P6讲 逻辑斯蒂回归 Logistic Regression

1.分类任务的数据集① The MNIST Dataset:handwritten digitsTraining set: 60,000 examples, Test set: 10,000 examples. Classes: 10 import torchvisiontrain_set = torchvision.datasets.MNIST(root='../dataset/mnist', train=True, download=True)test_set = torch..

2021-11-12 20:37:49 1251 3

原创 Pytorch深度学习实践(b站刘二大人)P5讲(用Pytorch实现线性回归 作业)

使用不同优化器训练模型,画出不同优化器的损失(loss)变化图像使用SGD优化器代码:import torchimport matplotlib.pyplot as plt#准备数据集x_data = torch.Tensor([[1.0],[2.0],[3.0]])y_data = torch.Tensor([[2.0],[4.0],[6.0]])#设计模型class LinearModel(torch.nn.Module): def __init__(self):

2021-11-11 22:24:45 1376

原创 Pytorch深度学习实践(b站刘二大人)P5讲(用Pytorch实现线性回归)

用Pytorch实现线性回归:1.准备数据集2.设计模型(计算y_pred)3.构造损失函数和优化器4.训练周期(前馈、反馈、更新)1.准备数据集x_data = torch.Tensor([[1.0] ,[2.0], [3.0]])y_data = torch.Tensor([[2.0], [4.0], [6.0]])2.设计模型(计算y_pred)我们的模型类应该从nn.Module继承,它是所有神经网络模块的基类import torch class Line

2021-11-06 18:11:57 840

原创 Pytorch深度学习实践(b站刘二大人)P4讲(反向传播)

课堂代码:#反向传播课上代码import torchx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]w = torch.tensor([1.0]) # w的初值为1.0w.requires_grad = True # 默认为False,True表示需要计算梯度def forward(x): return x * w#其中 w 是tensor,乘法运算符被重载,tensor 与 tensor 的乘法,所以 x 会自动进行

2021-11-06 13:14:32 339

End-to-End Object Detection with Transformers 文献汇报ppt

DETR学习分享:内含PPT分享

2022-04-25

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除