深度学习
文章平均质量分 82
evil心安
这个作者很懒,什么都没留下…
展开
-
深度学习笔记
动手深度学习中的一些笔记原创 2022-12-17 11:54:28 · 506 阅读 · 1 评论 -
StyleGAN系列
包括PGGAN,StyleGANv1,v2以及styleCLIP的论文概要原创 2022-12-15 21:51:57 · 492 阅读 · 0 评论 -
机器学习实战:各种测试集的划分方法(随机划分,分层抽样,hash划分)
理论上,创建测试集非常简单:只需要随机选择一些实例,通常是数据集的20%。def split_train_test(data, test_ratio): # 对0-len(data)之间的序列进行随机排序 shuffled_indices = np.random.permutation(len(data)) test_set_size = int(len(data) * test_ratio) test_indices = shuffled_indices[:test_set_s原创 2021-01-20 22:37:15 · 3781 阅读 · 2 评论 -
机器学习实战:基本问题及回答
dad原创 2021-01-19 22:01:50 · 863 阅读 · 0 评论 -
深度学习入门(六):深度学习
深度学习进一步提高识别精度集成学习,学习率衰减,数据扩充Data Augmentation基于算法“人为地”扩充输入图像。对于输入图像,通过施加旋转、垂直或水平方向上的移动等微小变化。通过裁剪图像的“crop处理”、将图像左右翻转的“flip处理”对于一般图像,施加亮度等外观上的变化、放大缩小等尺度上的变化也是有效的。加深层的动机可以减少网络的参数数量。加深了层的网络可以用更小的参数达到同等水平的表现力。叠加小型滤波器来加深网络的好处是可以减少参数的数量,扩大感受野(给神经元施加变化的某个局部原创 2021-01-02 22:23:18 · 242 阅读 · 0 评论 -
深度学习入门(五):卷积神经网络
卷积神经网络本章的主题是卷积神经网。CNN被用于图像识别、语言识别等各种场合。整体结构之前介绍的神经网络中,相邻层的所有神经元之间都有连接。这称为全连接。CNN中新增了Convolution层和Pooling层。CNN层的连接顺序是“Convolution-ReLU-(Pooling)”(Pooling层有时会被省略)。这可以理解为之前的“affine-ReLU”连接被替换成了“Convolution-ReLU-(Pooling)”连接。卷积层CNN中出现了一些特有的术语。比如填充,步幅等。此外,原创 2021-01-01 22:01:58 · 605 阅读 · 0 评论 -
深度学习入门(四):与学习相关的技巧
与学习相关的技巧本章介绍的方法,可以高效地进行神经网络(深度学习)的学习,提高识别精度参数的更新神经网络的学习的目的是找到使损失函数的值尽可能小的参数。这是寻找最优参数的问题,解决这个问题的过程称为最优化。在前几章中。为了找到最优参数,我们将参数的梯度作为线索,使用参数的梯度,沿梯度方向更新参数,并重复这个步骤若干次,从而靠近最优参数。这个过程称为SGD 随机梯度下降法。代码SGDclass SGD: def __init__(self, lr = 0.01): self.lr = lr原创 2020-12-28 20:41:12 · 244 阅读 · 0 评论 -
深度学习入门(三): 误差反向传播法
误差反向传播误差反向传播法:一种能够高效计算权重参数的梯度的方法计算图原创 2020-12-22 11:20:18 · 696 阅读 · 2 评论 -
深度学习入门(二):神经网络的学习
神经网络的学习这里所说的“学习”是指从训练数据中自动获取最优权重参数的过程。损失函数神经网络的学习通过某个指标表示现在的状态,然后,以这个指标维基准,寻找最优权重参数,神经网络的学习中所用的指标称为损失函数均方误差E=12∑k(yk−tk)2 E = \frac{1} {2}\sum_k(y_k-t_k)^2E=21k∑(yk−tk)2这里,yky_kyk 表示神经网络的输出,tkt_ktk表示监督数据,k表示数据的维度def mean_squared error(y, t):原创 2020-12-20 21:39:37 · 442 阅读 · 0 评论 -
深度学习入门(一):神经网络(阶跃函数,sigmoid,ReLU,softmax,激活函数)
从感知机到神经网络感知机感知机接受多个输入信号,输出一个信号。这里说的信号可以想象成电流或河流具备“流动性”的东西。但是,和实际的电流不同的是,感知机的信号只有“流/不流”(1/0)两种取值。如图:是一个接受两个输入信号的感知机。x1、x2是输入信号,y是输出信号,w1,w2是权重。θ\thetaθ被称为阈值。b是被称为偏置的参数,用于控制各个信号的重要性。y={0,b+w1x1+w2x2≤θ1,b+w1x1+w2x2>θ y = \begin{cases}原创 2020-12-13 20:28:38 · 2680 阅读 · 0 评论