![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
实现自己的DL/ML
冰临天下
一个菜鸟工程师的心理路程
展开
-
【从0开始实现自己的各种神经网络】【虽然真的实现属于浪费时间】【第二篇】:多节点单隐层 + 单节点输出层二分类神经网络(简单笔记)
总结: 只记几点重要的: 隐层和输出层的w参数需要随机初始化,否则因为初始状态一致,每次BP之后的状态也都一致,多节点毫无意义 常见的激活函数有: ,取值范围为0 ~ 1,除了二分类的输出层,基本已不用 ,取值范围为-1 ~ 1,并且在绝大部分情况下,表现比sigmoid要好,导数 = ,大部分情况下的选用,当z < 0时,导数为0;当z > 0时,导数为1;当z = 0时,无导数。但是程序实现时,当z = 0时,可以给1 正反向过程公式为: 正向: ,其中上.原创 2020-05-12 21:47:07 · 457 阅读 · 0 评论 -
【从0开始实现自己的各种神经网络】【虽然真的实现属于浪费时间】【第一篇】:LR逻辑回归的原理、代码实现及性能优化(更新使用numpy消除for循环的代码,并附加性能比对截图)
写在前面: 本系列文章是对于自己自学吴恩达教授的系列视频做的笔记及总结,所以很多地方可能会比较口语化,不太专业,原视频链接:吴恩达给你的人工智能第一课,感兴趣的朋友还是建议看原视频,毕竟是大师的视频。 所以在系列视频中实现的各种神经网络,包括DNN、RNN、LSTM等等,有时间的情况下,应该会都更新上自己手撕的代码 因为是新手,所以文章中可能会有很多错误的理解或者实现...希望大佬们多多指教...原创 2020-05-08 09:31:05 · 725 阅读 · 0 评论