吴恩达ML课程笔记(第4周)

在这里插入图片描述上标层数,下标特征编号

在这里插入图片描述

在这里插入图片描述
The output nodes will not include the bias nodes while the inputs will.

在这里插入图片描述

5.a, θ \theta θ,z的上标和下标的意义(这里都是单一数字,不考虑向量):

类别上标下标
a特征的序号所在的层数
θ \theta θ左下标是目标层数特征的下标,右下标是出发层数的特征下标出发层数
z和a的一致和a的一致

z和a的关系是:
在这里插入图片描述

6.多分类情况下的神经网络
在这里插入图片描述

7.matlab中的size函数:
这个函数是用来获取矩阵的函数和列数的,我们用矩阵X来说明一下它的具体用法:
1)size(X):返回一个行向量,第一个元素是X的行数,第二个元素是X的列数
2)size(X,1):返回矩阵的行数
3)size(X,2):返回矩阵的列数

8.我说一下这一周的作业里predictOneVsAll.m的思路:
X是一个5000*401的特征矩阵,也就是所,有5000个样本,401个特征(包括x0);all_theta是10*401,其中每一行的数据能把某一个样本的特征转化为对应的样本值,比如第一行就是把某一个样本的特征值转化为标签1所得到的值;sigmoid(X*all_theta’)得到的是5000*10的矩阵,也就是每一行的值就是这个样本可能是数字1~9,以及0的可能性,我们取最大的可能性,并记下其索引值,得到的就是这一个样本可能对应的数字。比如,我们第一行的数据为:0.11,0.32,0.13,0.04,0.35,0.66,0.47,0.08,0.9,0.03,最大值为第9个元素:0.9,也就是说我们计算出来的第一个样本是数字9的可能性是最大的,所以我们就把这个索引9记录在矩阵P里,其它样本同理。

9.作业答案链接:github
作业提交情况截图:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值