- 博客(2)
- 资源 (7)
- 问答 (3)
- 收藏
- 关注
原创 Softmax
简介其实吧,一般在神经网络中用的最多的是sigmoid和tanh,当然也有用relu的。这是针对“是”和“否”的分类,但当进行多分类时,就要用到softmax 。在logistic回归中,训练样本是:{(x(1),y(1)),...,(x(m),y(m))}\{(x^{(1)},y^{(1)}),...,(x^{(m)},y^{(m)})\},值得注意是,每个样本x(i)∈R(n+1)x^
2015-12-24 17:42:12 12290
原创 matlab之bsxfun与repmat
bsxfuna = [1; 2; 3]; b = [2, 4, 6];bsxfun(@plus,A,B)ans = 3 5 7 4 6 8 5 7 9其实bsxfun的功能是这样的: bsxfun的执行是这样的,如果a和b的大小相同,那么c=a+b. 但如果有某维不同,且a或b必须有一个在这一维的维数为1, 那么b
2015-12-05 21:18:45 1387
为什么matlab中相同大小的矩阵运行速度差异巨大
2016-09-18
MATLAB的一个神经网络已经做好,想用C#写界面,如何才能调用?
2016-04-01
如何解决这个矩阵问题?
2016-03-23
TA创建的收藏夹 TA关注的收藏夹
TA关注的人