深度学习
聪明乖巧的小狮子
这个作者很懒,什么都没留下…
展开
-
Resnet-18和Resnet34 pytorch实现
残差块:18层:(2+2+2+2)*2+1+1原创 2021-10-24 12:15:59 · 708 阅读 · 0 评论 -
LeNet 5 pytorch实现
import torch.nn as nnimport torchfrom torchinfo import summary#img is 32*32*1data=torch.ones(size=(10,1,32,32))class LeNet_5(nn.Module): def __init__(self): #定义神经网络所需的全部元素 super().__init__() self.conv1=nn.Conv2d(1,6,5) #32+2pa.原创 2021-10-23 22:29:08 · 300 阅读 · 0 评论 -
VGG-19架构 pytorch实现
import torchimport torch.nn as nnfrom torchinfo import summaryclass VGG19(nn.Module): def __init__(self): super().__init__() self.conv1=nn.Conv2d(3,64,kernel_size=3,padding=1) self.conv2=nn.Conv2d(64,64,kernel_size=3,padding.原创 2021-10-23 22:24:52 · 1617 阅读 · 0 评论 -
偏差和方差
偏差(Bias)反映的是模型在样本上的输出与真实值之间的误差,即模型本身的精准度方差(Variance)反映的是模型每一次输出结果与模型输出期望之间的误差,即模型的稳定性。高偏差导致欠拟合(underfitting)高方差导致过拟合(overfitting)直白说就是:bias是偏差,偏置,强调偏离,模型的预测值和真实数据离得老远,离谱的拟合结果,就是欠拟合而方差则是输出的值互相离得老远,逐渐离谱,就是把数据全拟合上了,但是曲线贼离谱复杂,就是过拟合...原创 2021-08-10 15:57:50 · 61 阅读 · 0 评论 -
线性回归regression
线性回归 (linear regression)基于几个简单的假设:首先,假设自变量 x 和因变量 y 之间的关系是线性的,即 y 可以表示为 x 中元素的加权和,通常允许包含观测值的一些噪声;其次,假设任何噪声都比较正常,如噪声遵循正态分布。线性模型损失函数梯度下降(gradient descent)通过不断地在损失函数递减的方向上更新参数来降低误差。但有时时间成本太大故采用小批量随机梯度下降(minibatch stochastic gradient descent)原创 2021-08-04 19:21:49 · 189 阅读 · 0 评论 -
自动求导及实现
自动求导在我们计算 y 关于 x 的梯度之前,我们需要一个地方来存储梯度。 重要的是,我们不会在每次对一个参数求导时都分配新的内存。import torch#创建变量x并为其分配一个初始值。、x=torch.arange(4.0,requires_grad=True)print(x)print(x.grad)#x是一个长度为4的向量,计算x和x的内积,得到了我们赋值给y的标量输出y=2*torch.dot(x,x)print(y)#接下来,我们可以通过调用反向传播函数来自动计算y关于原创 2021-08-04 12:06:16 · 310 阅读 · 1 评论 -
深度学习数据处理与代数基础
torch数据处理1.标量scalar即0阶张量import torchx=torch.tensor([3.0])y=torch.tensor([4.0])print(x+y)print(x*y)2.向量 vector(一阶张量)即标量值组成的列表并将这些标量值称为向量的元素(elements) 或分量(components)向量的长度通常称为向量的维度(dimension)x=torch.arange(4)print(x)print(len(x))print(x.shape原创 2021-08-02 17:26:42 · 371 阅读 · 0 评论 -
deep learning and baseline
得到初步的数据集并且训练模型原创 2021-07-15 23:42:05 · 63 阅读 · 0 评论