coursera-斯坦福-机器学习-吴恩达-第4周笔记-神经网络

本文详细记录了吴恩达在Coursera上斯坦福大学机器学习课程的第4周内容,主要讨论神经网络的动机、算法、应用及复习作业。神经网络在解决多特征问题时展现出优势,通过实例解释了神经元工作原理和神经网络的计算逻辑,包括and、or等逻辑运算。此外,还探讨了神经网络在多分类问题中的应用,以及课程中的编程作业——多分类问题的逻辑回归和神经网络实现。
摘要由CSDN通过智能技术生成

coursera-斯坦福-机器学习-吴恩达-第4周笔记-神经网络

1 提出神经网络的动机

前面我们学习了,线性回归、逻辑回归,他们可以很好的解决一些预测问题。但是面对一些多特征的问题,比如以下的情况,他们并不能很好的画出分类边界线。

[外链图片转存失败(img-ERGd8XMD-1566960835819)(http://oqy7bjehk.bkt.clouddn.com/17-11-29/51984824.jpg)]

这种时候需要用到多项式回归(非线性的),这种函数画出的曲线可以有任意角度。但是这种函数会因为特征量的增多导致二次项数的剧增。 比如在图像识别中,一个50×50像素的图片,拥有的特征量为2500,那么它的二次项数为2500×2500/2,大约为3百万个。

在这种情况下,神经网络在1970左右被提出。

2 神经网络算法

2.1 神经元

神经网络是有一个个的神经元组成的网络。那么什么是“神经元”?
[外链图片转存失败(img-XlQfgPpY-1566960835820)(http://oqy7bjehk.bkt.clouddn.com/17-11-29/2034250.jpg)]
如图,这是一个最简单的神经元,模型的输入是x1,x2,x3通过参数(权重)θ1,θ2…,并使用逻辑函数激活(压缩),得到输出结果。

2.2 神经网络

下图为一个三层神经网络模型。第一层为输入层,第二层为隐藏层,第三层为输出层。 每条边上有一个权值θ。
image

a i ( j ) a^{(j)}_i ai(j):第j层单元i的“激励”

θ ( j ) \theta^{(j)} θ(j):第j层到第j+1层单元的权值矩阵。

若第j层单元数为 s j s_j sj,第j+1层单元数为 s j + 1 s_{j+1} sj+1,则 θ

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值