![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
旭日不冷
CS在读
https://github.com/Rikki-lab
展开
-
【深度学习】吴恩达课程笔记(三):深度学习使用层面
【深度学习】吴恩达课程笔记(三):深度学习使用层面交叉验证二级目录三级目录交叉验证小数据项目分为训练集,验证集,测试集,一般2验证集和测试集37分,如果没有明确设置验证集,可以622分。注意验证集和测试集来自同一分布。二级目录三级目录...原创 2020-08-18 14:29:09 · 145 阅读 · 0 评论 -
【深度学习】吴恩达课程笔记(二)神经网络知识整理
【深度学习】吴恩达课程笔记(二)神经网络知识整理一级目录简单神经网络三级目录用博客记录学习效率贼高就很开心????一级目录简单神经网络x1⋅⋅⋅xmx_1···x_mx1⋅⋅⋅xm是输入层中间是隐藏层,中间运算 的数据最后是输出层还有种表示方法:输入层记为a[0]=Xa^{[0]}=Xa[0]=X,之后iud每一层记为a[1],a[2]⋅⋅⋅a^{[1]},a^{[2]}···a[1],a[2]⋅⋅⋅上标表示层数,下标表示这个矩阵的行数,如隐藏层可表示为:a[1]=[a1[1]a2[原创 2020-08-15 14:02:37 · 213 阅读 · 0 评论 -
【深度学习】吴恩达课程笔记(一)Logistic回归和深度学习基础知识整理
【深度学习】吴恩达课程笔记(一)Neural Networks and Deep Learning寒假的时候跟着李宏毅的视频学了很久,但是我都是记在笔记本上的,现在有些遗忘了,发现博客是个很好的记忆载体,那就快速过一遍吴恩达的吧。顺便还把Latex学了,真不错????函数积累ReLU函数修正线性单元修正:不小于0sigmoid函数σ(z)=11+e−z.\sigma(z) = \frac{1}{1+e^{-z}}.σ(z)=1+e−z1.表示概率不错的。基本概念基本神经元xxx原创 2020-08-13 20:28:39 · 255 阅读 · 0 评论