【Coursera Machine Learning】 Week4 学习笔记

七、神经网络:表述(Neural Networks:Representation)

7.1 模型表示 (Model Representation)


1、每一个神经元都可以被认为是一个处理单元/神经核(Nucleus),它含有许多输入/树突(Dendrite),并且有一个输出/轴突(Axon)
2、神经网络是大量神经元相互链接并通过电脉冲来交流的一个网络。
3、神经网络模型建立在许多神经元之上,每一个神经元又是一个学习模型,这些神经元(也叫激活单元,activation unit)采纳一些特征作为输入,并且根据本身的模型提供一个输出。
4、以逻辑回归模型作为自身学习模型的神经元示例

我们设计出类似于神经元的神经网络

其中 x1,x2,x3 是输入单元,我们将原始数据输入给它们。
a1,a2,a3 是中间单元,它们负责将数据进行处理,然后呈递到下一层。
最后是输出单元,它负责计算 hθ(x)
5、神经网络模型

Layer 1是输入层(Input Layer)
Layer 2是隐藏层(Hidden Layer)
Layer 3是输出层(Output Layer)
我们为每一层都增加率一个偏差单元(bias unit)
a(j)i 代表第j层的第i个激活单元。
Θ(j) 代表从第j层映射到第j+1层的权重矩阵
激活单元和输出表达式:

a(2)1=g(Θ(1)10x0+Θ(1)11x1+Θ(1)12x2+Θ(1)13x3)a(2)2=g(Θ(1)20x0+Θ(1)21x1+Θ(1)22x2+Θ(1)23x3)a(2)3=g(Θ(1)30x0+Θ(1)31x1+Θ(1)32x2+Θ(1)33x3)hΘ(x)=g(Θ(2)10a(2)0+Θ(2)11a(2)1+Θ(2)12a(2)2+Θ(2)13a(2)3)

用向量来表示
a(2)1a(2)2a(2)3=g(Θ(1)10Θ(1)20Θ(1)30Θ(1)11Θ(1)21Θ(1)31Θ(1)12Θ(1)22Θ(1)32Θ(1)13Θ(1)23Θ(1)33x0x1x2x3)hΘ(x)=g([Θ(2)10Θ(2)10Θ(2)10Θ(2)10]a(2)0a(2)1a(2)2a(2)3)


a(2)=a(2)1a(2)2a(2)3Θ(1)=Θ(1)10Θ(1)20Θ(1)30Θ(1)11Θ(1)21Θ(1)31Θ(1)12Θ(1)22Θ(1)32Θ(1)13Θ(1)23Θ(1)33x=x0x1x2x3Θ(2)=[Θ(2)10Θ(2)10Θ(2)10Θ(2)10]


z(2)=Θ(1)xa(2)=g(z(2))z(3)=Θ(2)a(2)hΘ(x)=a(3)=g(z(3))

如果我们要对整个训练集进行计算,我们需要将训练集特征矩阵进行转置,使得同一个实例的特征都在同一列里,即
z(2)=Θ(1)xTa(2)=g(z(2))

当我们遮住Layer 1时,剩下的其实就是逻辑回归(Logistic Regression)

神经网络就像是逻辑回归,我们可以把 a0,a1,a2,a3 看成更为高级的特征值,也就是 x0,x1,x2,x3 的进化体,并且它们市由x决定的,因为是梯度下降的,所以a是变化的,并且变得越来越厉害,所以这些更高级的特征值远比仅仅将x次方厉害,也能更好的预测新数据。

7.2 样本和直观理解(Examples and Intuitions)

1、从本质上讲,神经网络能够通过学习得出其自身的一系列特征。在普逻辑回归中,我们被限制为使用数据中的原始特征 x1,x2,...,xn ,我们虽然可以使用一些二项式来组合这些特征,但是我们仍然受到这原始的限制。在神经网络中只输入层,在我们上面三层的神经网络例子中,第三层也就是输出层做出的预测利用的是第二层的特征,而非输入层中的原始特征,我们可以认为第二层中的特征市神经网络通过学习后自己得出的一系列用于预测输出变量的新特征。

2、神经网络如何计算关于输入复杂的非线性函数实例

(1)AND
假设函数为 hθ(x)=g(30+20x1+20x2) ,则
x1=0,x2=0 hθ(x)=g(30)0
x1=0,x2=1 hθ(x)=g(10)0
x1=1,x2=0 hθ(x)=g(10)0
x1=1,x2=1 hθ(x)=g(10)1
hθ(x) 实现了AND函数。
(2)(NOT x_1) AND (NOT x_2)
假设函数为 hθ(x)=g(1020x120x2) ,则
x1=0,x2=0 hθ(x)=g(10)1
x1=0,x2=1 hθ(x)=g(10)0
x1=1,x2=0 hθ(x)=g(10)0
x1=1,x2=1 hθ(x)=g(30)0
hθ(x) 实现了(NOT x_1) AND (NOT x_2)函数
(3)OR
假设函数为 hθ(x)=g(10+20x1+20x2) ,则
x1=0,x2=0 hθ(x)=g(10)0
x1=0,x2=1 hθ(x)=g(10)1
x1=1,x2=0 hθ(x)=g(10)1
x1=1,x2=1 hθ(x)=g(30)1
hθ(x) 实现了OR函数
(4)XNOR
x1 XNOR x2 = ( x1 AND x2 ) OR { (NOT x1 ) AND (NOT x2 ) }
我们将上面三个组合在一起

这就是一个神经网络。按照这种方法我们可以逐渐构造出越来越复杂的函数,也能得到更加厉害的特征值。

7.3 多元分类(Multiclass Classification)

下面是一个输入x有三个维度,输出y有四个维度的神经网络

输出层4个神经元分别用来表示4类,也就是最后在输出层会出现 [a,b,c,d]T ,且a,b,c,d中仅有一个为1,表示当前类。

实例展示:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Coursera机器学习是由斯坦福大学教授Andrew Ng主讲的一门在线课程,旨在向学习者介绍机器学习的基本概念、算法和应用。该课程涵盖了监督学习、无监督学习、深度学习等多个方面,通过理论讲解和实践编程作业,帮助学习者掌握机器学习的基本原理和实践技能。该课程是Coursera平台上最受欢迎的课程之一,也是机器学习领域入门的重要资源之一。 ### 回答2: Coursera机器学习是由斯坦福大学Andrew Ng教授设计并教授的在线课程。这门课程被认为是公认的机器学习入门教材之一,也是Coursera平台最受欢迎的课程之一。 这门课程涵盖了机器学习领域中最基础的知识和技术,包括监督学习、无监督学习以及神经网络等。学生可以通过该课程了解到如何采集和处理数据、如何训练模型、如何评估模型的性能等。此外,课程还涉及到机器学习中一些实用的技术,如正则化、梯度下降等。 该课程受到了全球范围内的认可和青睐,许多学生、工程师、数据科学家等都受益于该课程。由于该课程的知识点全面、深入浅出、容易理解和学习,在业内和学术界都广受赞誉,拥有较高的知名度和价值。 总之,Coursera机器学习是一门非常好的课程,对于那些对机器学习感兴趣的人来说,它是一个不可错过的机会。课程教材内容丰富、难度适中,且教学相对轻松愉悦,难怪在学习资源上产生了广泛的影响。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值