图解全连接神经网络及算法

本文作者在学习Adrew NG的深度学习课程后,通过手绘图解和Python实现了一个全连接的多层神经网络。针对神经网络层数对齐问题,作者增加了0变量以简化索引,问题得以解决。建议在编写代码前先进行规划。代码已上传至GitHub,实验结果显示,使用两个隐藏层和tanh/sigmoid激活函数的网络在二分类问题上表现出良好的效果。
摘要由CSDN通过智能技术生成

看完Adreaw NG的深度学习第一课后,想着自己用python来实现一个全连接多层神经网络,但在实现的过程中,由于对从0开始计数等不太能想象,发现index很烦,就自己拿出一张纸来写出过程给自己冷静冷静,通过给参数W,b,中间变量A, Z等数据结构添加了一个0变量后使得他们与神经网络的层数对齐后,然后所有的问题都迎刃而解了!所以以后写代码还是先拿出笔纸来列个提纲后确定了之后再开始写代码吧。。。

不多说了,上图解:(基于二分类logistics regression cost function的梯度下降反向传播推导出来的算法,推导过程这里省略了)

 

我的实现代码见我的GitHub:Interesting6

实验效果:

分类边界图:

用了两个隐藏层,以tanh为隐藏层激活函数,sigmoid为输出层激活函数,可以看到分类的效果还是不错的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值