【笔记】Week4:神经网络的模型表示及背景,应用,多类分类问题 (Machine Learning)

8 篇文章 0 订阅
7 篇文章 0 订阅
本文介绍了神经网络的模型表示,包括神经元的计算单元模型和层次神经网络表示,以及向前传播的向量实现。讨论了神经网络在非线性分类中的应用,如AND、OR、NOT等逻辑函数,以及复杂任务如XOR和手写数字分类。此外,还阐述了多类分类问题中的一对多方法,并提醒读者注意Quiz中的陷阱,指出模型的正确性与theta设置有关。
摘要由CSDN通过智能技术生成

吐槽:有个quiz的题目还挺坑的,记录一下哈。。顺便笔记。。

正文:

1,神经网络的模型表示及背景

背景:脑中的一个神经元是一个计算单元。神经元的dendrite(树突(位于神经元末端的细分支,接收其他神经元传来的信号))是输入电线,axon(轴突(神经细胞的突起,将信号发送到其他细胞))是输出电线。

单一神经元的模型:逻辑单元,也就是h(x) = 1 / (1+e^(-thetaTx))(h(x)称sigmoid(logistic)激活函数)。

神经网络模型:举例的是层次为3的神经网络,其中layer1为输入层,layer2为隐藏层,layer3为输出层。

其表示:a^(j)_(i)表示在 j 层次上的 i 单元的激活,theta^(j)表示控制从 j 层到 (j+1) 层权重的矩阵,z^(j)_i表示theta(j-1) * a^(j-1)_i,a^(j)_i表示g(z^(j)_i),其中a^(1) = x向量。(重点:如果网络在 j 层次上有sj个单元,在 (j+1) 层次上有s_(j+1) 个单元,则theta^(j) 的维度将为s_(j+1) * (sj + 1))

向前传播的向量实现:z^(j)_i表示theta(j-1) * a^(j-1)_i,a^(j)_i表示g(z^(j)_i),其中a^(1) = x向量。

2,应用

非线性分类的简单例子(简单神经元):AND(如theta1 = [-30; 20; 20]),OR(如theta1 = [-10; 20; 20]),NOT(如theta1 = [10; -20]),(NOT x1) AND (NOT x2) (如theta1 = [10; -20; -20]) 。

非线性分类的复杂例子(神经网络):XOR/XNOR(需要隐藏层来实现,其中a^(2)_(1)为AND的theta1,a^(2)_(2)为(NOT x1) AND (NOT x2)的theta1,a^(3)_(1)为OR的theta1),顺便:所有的逻辑函数都可以用神经网络表示,只要这个网络够复杂,就可能实现相当复杂的逻辑函数(复制于:https://blog.csdn.net/sinat_39805237/article/details/78712838)。

其他例子(多类分类):手写数字分类。

3,多类分类问题

一对多的举例:层次很多且存在不止一层的隐藏层,h(x) = [1; 0; 0; 0]为行人,h(x) = [0; 1; 0; 0]为车,h(x) = [0; 0; 1; 0]为摩托车,h(x) = [0; 0; 0; 1]为卡车,h(x^(i)) = y^(i)。

需要注意quiz的一个问题(https://blog.csdn.net/sinat_39805237/article/details/78712838,第一题的B):确实是与theta的设置有关,我一开始选错了,是我觉得所有的可能性之和必然为1,但是忽略了这个模型他没说是不是正确的,所以如果不正确的话确实应该与theta设置有关。。= =

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值