代码连接:https://github.com/taijizuomantou/machine_learning_zhouzhihua
注意:交叉验证和留一法,都只是用来评估误差的。训练实际得到的模型是使用所有数据集的。ok
采用的是uci使用最多的iris数据集。特别注意,得到的参数结果是不收敛的。但测试的结果却是完全正确的。
这里有些混淆。在吴恩达课程中,不使用批处理的情况下,一般情况会越小,并且最终收敛的是代价函数J,与参数无关。在对率回归中,与J同等作用的应为l(B) = 通过l的值判断是否收敛,而不是你以为的参数。
1.二维or一维出现频率最多的元素
https://blog.csdn.net/y12345678904/article/details/72852174
for i in range(int(m/K)):
tyy = yy[:,i].flatten()
tyy = tyy.astype(int)
count = np.bincount(tyy)
ypred = np.argmax(count)
得到每一列出现次数最多的元素
2.求逆
np.linalg.inv(d2)
3.
np.delete(aX,np.s_[k * 5:k * 5 + 5],axis = 0)
4.通过【0】保证只有正确的下角标
dnum = np.where(y != i)
ttx = x[dnum[0],:]