![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习笔记
??18045080716
这个作者很懒,什么都没留下…
展开
-
信息熵--一看就懂
先给出信息熵的公式:其中:????(????????)代表随机事件????????的概率。下面逐步介绍信息熵公式来源!首先了解一下信息量:信息量是对信息的度量,就跟时间的度量是秒一样,当我们考虑一个离散的随机变量 x 的时候,当我们观察到的这个变量的一个具体值的时候,我们接收到了多少信息呢?多少信息用信息量来衡量,我们接受到的信息量跟具体发生的事件有关。信息的大小跟随机事件的概率有关。越小概率的事情发生了产生的信息量越大,如湖南产生 的地震了;越大概率的事情发生了产生的信息量越小,如太阳从东边升原创 2020-10-04 16:30:22 · 461 阅读 · 0 评论 -
深度学习笔记:第五课链接汇总
循环序列模型https://blog.csdn.net/weixin_44334615/article/details/106310489https://blog.csdn.net/weixin_43197820/article/details/106333221https://blog.csdn.net/weixin_43197820/article/details/106334188自然语言处理与词嵌入https://blog.csdn.net/weixin_44334615/article/原创 2020-05-25 22:31:35 · 106 阅读 · 0 评论 -
深度学习笔记:第四课链接汇总
卷积神经网络卷积神经网络介绍https://blog.csdn.net/weixin_44334615/article/details/105906965https://blog.csdn.net/weixin_43197820/article/details/105947968卷积神经网络的batchnorm的特殊化处理补充https://blog.csdn.net/weixin_43...原创 2020-05-06 13:46:12 · 132 阅读 · 0 评论 -
深度学习笔记:第三周链接汇总
机器学习的一般策略本周(第三课)内容有点杂,而且较少,就直接都放在一起了笔记网页链接网页链接网页链接网页链接网页链接疑问网页链接...原创 2020-04-26 17:53:23 · 105 阅读 · 0 评论 -
深度学习笔记:第二周链接汇总
训练集、验证集、测试集 以及偏差和方差链接正则化链接神经网络中的梯度消失、梯度爆炸、梯度的数值逼近、梯度检验链接神经网络初始化权重设置链接第一周三次作业链接链接链接链接链接链接Mini-batch梯度下降法链接Momentum RMSprop Adam 学习率衰减链接第二周作业链接链接超参数调试链接Batch Norm Batch归一化链接链接...原创 2020-04-19 23:42:03 · 125 阅读 · 0 评论 -
深度学习笔记:第一课链接汇总
前言,深度学习简介https://blog.csdn.net/weixin_43197820/article/details/105420724https://blog.csdn.net/weixin_44334615/article/details/105429039sigmoid函数,logistic回归,梯度下降法https://blog.csdn.net/weixin_443...原创 2020-04-12 22:04:00 · 330 阅读 · 0 评论