![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
笔记
文章平均质量分 82
思维特二
image/video compression
展开
-
函数的可微与可导
最近复习到高数的一元函数微分部分 ,可导和可微是两个特别重要也特别容易混淆的概念。所以简单记录一下,便于自己理解,仅供参考。导数从物理角度来说(牛顿是从物理学的角度发明出的微积分)某点的导数就是一个该点的瞬时变化率的问题。几何意义上来说(莱布尼茨从数学角度发明出的微积分),某点的导数是曲线在该点处的切线的斜率。从定义来看,导数在本质上是一个极限问题。f(x)在x0x_0x0处的导数f(x)ˋ\grave{f(x)}f(x)ˋ为:f(x)ˋ=limΔx→ 0f(x0+Δx)−f(x0原创 2021-01-27 20:20:41 · 6079 阅读 · 0 评论 -
浅谈生成对抗网络GAN
简介生成对抗网络(Generative adversarial networks)是深度学习领域的一个重要生成模型,还有其他的生成模型,比如VAE和其他GAN变种模型 。为什么叫做生成对抗网络。是因为GAN的主要结构包括一个生成器G(Generator)和一个判别器D(Discriminator)。下面以生产图片为例进行分析生成网络接收一个随机的噪音数据(一般服从正态分布),生生成图片,记作G(Z)。Z表示噪声数据。判别网络判断真实图像的输出结果输入为真实数据X,输出X为真实图片的概率(0原创 2020-08-02 22:52:55 · 705 阅读 · 0 评论 -
Resnet残差网络
根据经验,网络层数的增加有利于模型训练的准确率 像上一次我们提到的VGG网络 就是通过增加网络深度来提取更丰富的特征越丰富,从而提高模型的训练精度和泛化能力。但是,当网络层数达到一定时不能单纯通过增加深度来优化网络,简单地增加深度,会导致梯度弥散或梯度爆炸。(反向传播时无法把有效地把梯度更新到前面的网络层,导致前面的层参数无法更新,因为层数越多,计算越复杂,传播到前面浅层次的梯度会越来越小,使浅层次的参数得不到很好的训练,模型训练起来也更加困难)。所以在Resnet出现之前,CNN网络都不超过二十几层。解原创 2020-08-09 22:46:13 · 2451 阅读 · 0 评论