机器学习
啥啥啥来着
你看到的全是假象
展开
-
梯度下降
写在前面x : input variables/features y : output variables我们通过在一堆训练样本中,通过算法,找出一个函数h,使每一个输入样本能够得到我们想要的输出y.假设一个样本中具有n个特征,则记X=(x1x2⋮xn)\bigl(\begin{smallmatrix}x_1\\x_2\\\vdots\\x_n\end{smallmatrix}\bigr),对于这原创 2016-11-19 22:52:59 · 380 阅读 · 0 评论 -
卷积神经网络基础整理
卷积神经网络基础整理碎碎卷积神经网络与全连接神经网络的区别:全连接神经网络没两层之间的所有节点都相连接;卷积神经网络相邻的两层之间只有部分节点相连。全连接神经网络将全连接层中的所有节点组成一列,而卷积神经网络将圈基层的节点组成一个三位网络矩阵。为什么要引入卷积神经网络:因为在全连接神经网络中,随着图片的增大,输入层的节点增多,参数数量增大。易产生过拟合的问题。 对于一张28*28原创 2018-01-29 21:26:01 · 318 阅读 · 0 评论 -
机器学习概率论相关知识了解一下
条件概率和独立如果A发生的概率依赖于B,所以A和B同时发生的概率:P(AB)=P(A|B)P(B)P(AB)=P(A|B)P(B)P(AB)=P(A|B)P(B);如果用P(A|B¯¯¯¯)P(A|B¯)P(A|\overline B) 表示B不发生时A发生的概率,则P(A)=P(A|B)P(B)+P(A|B¯¯¯¯)(1−P(B))P(A)=P(A|B)P(B)+P(A|B¯)(1−P(B...原创 2018-03-15 15:28:42 · 242 阅读 · 0 评论