上标层数,下标特征编号
The output nodes will not include the bias nodes while the inputs will.
5.a, θ \theta θ,z的上标和下标的意义(这里都是单一数字,不考虑向量):
类别 | 上标 | 下标 |
---|---|---|
a | 特征的序号 | 所在的层数 |
θ \theta θ | 左下标是目标层数特征的下标,右下标是出发层数的特征下标 | 出发层数 |
z | 和a的一致 | 和a的一致 |
z和a的关系是:
6.多分类情况下的神经网络
7.matlab中的size函数:
这个函数是用来获取矩阵的函数和列数的,我们用矩阵X来说明一下它的具体用法:
1)size(X):返回一个行向量,第一个元素是X的行数,第二个元素是X的列数
2)size(X,1):返回矩阵的行数
3)size(X,2):返回矩阵的列数
8.我说一下这一周的作业里predictOneVsAll.m的思路:
X是一个5000*401的特征矩阵,也就是所,有5000个样本,401个特征(包括x0);all_theta是10*
401,其中每一行的数据能把某一个样本的特征转化为对应的样本值,比如第一行就是把某一个样本的特征值转化为标签1所得到的值;sigmoid(X*
all_theta’)得到的是5000*
10的矩阵,也就是每一行的值就是这个样本可能是数字1~9,以及0的可能性,我们取最大的可能性,并记下其索引值,得到的就是这一个样本可能对应的数字。比如,我们第一行的数据为:0.11,0.32,0.13,0.04,0.35,0.66,0.47,0.08,0.9,0.03,最大值为第9个元素:0.9,也就是说我们计算出来的第一个样本是数字9的可能性是最大的,所以我们就把这个索引9记录在矩阵P里,其它样本同理。
9.作业答案链接:github
作业提交情况截图: