- 博客(4)
- 收藏
- 关注
原创 第四篇:张量
简单理解,张量就是指高维数组。一维指scalar,二维是matrix,三维或者以上就是张量喽。当然,数学和物理中的tensor就没有这么简单了。计算机语言中可以这么理解,后续补充。。。...
2018-09-16 20:39:02 247
转载 第三篇:最大似然估计
通俗理解,最大似然估计是指利用已知的样本结果信息,反推最有可能导致这种结果出现的模型参数值。它提供了一种给定观察数据估计模型参数的方法(模型已定,参数未知)。极大似然估计中采样需满足一个重要的假设,就是所有的采样都是独立同分布的。...
2018-09-15 20:44:37 134
原创 第二篇:基于梯度的学习
线性模型和神经网络模型的最大区别,在于神经网络的非线性导致大多数我们感兴趣的代价函数都变得非凸。这意味着神经网络的训练通常使用迭代的,基于梯度优化,仅仅使得代价函数达到一个非常小的值;而不是像训练线性回归模型的线性方程求解器,活着用于训练逻辑回归或SVM的凸优化算法那样可以保证全局收敛。凸优化从任意一种初始参数出发都会收敛(理论上如此,在实践过程中也很鲁棒但可能会遇到数值问题)。用于非凸损失函数的...
2018-09-15 20:32:17 932
原创 第一篇:激活函数
激活函数是神经网络中重要的关键元素之一。如果没有激活函数,神经网络就是一个线性组合的函数,而生活中绝大多数模型均是非线性的,因此模型的可扩展性非常差,其效果并不比罗辑回归更好。而在神经网络中加入激活函数,就增加了神经网络的非线性。比如XOR(抑或函数),无法通过原始线性模型实现。比如XOR中,x1和x2是输入,x1=0时,模型的输出必须随着x2的增大而增大,而x1=1是,模型的输出必须随着x2...
2018-09-15 20:23:25 207
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人