机器学习
cvrszeng
这个作者很懒,什么都没留下…
展开
-
梯度下降法的解释和几点误解
1、梯度是一个向量,它的方向是函数f的方向导数最大的方向,它的大小是函数f在该点沿着梯度方向的方向导数; 2、一元函数f(x)f(x)的梯度的方向永远在x轴方向(正向或反向),并不是有的说的斜线的方向,二元函数f(x,y)f(x,y)的梯度方向在x,y平面上; 3、梯度上升方向和梯度下降方向,梯度本身是一个方向,不存在下降和上升方向,只能说因变量x\mathbb x(此处的x\mathbb x是原创 2016-08-27 13:20:55 · 968 阅读 · 0 评论 -
逻辑回归及其数学推导
本文只讨论二分类的情况一、逻辑回归P(Y=1|X=x)=ewTx1+ewTx=h(x) P(Y=1|X=x) = { {e^{w^Tx} } \over {1+e^{w^Tx} } } =h(x) P(Y=0|X=x)=11+ewTx=1−h(x) P(Y=0|X=x) = { {1} \over {1+e^{w^T{x}} } } =1-h(x) logP(Y=1|X=x)P(Y=0|X=原创 2016-08-27 14:28:33 · 1967 阅读 · 1 评论 -
朴素贝叶斯及其数学推导
一、朴素贝叶斯简单介绍 朴素贝叶斯成立的前提是条件独立性假设:分类的特征xix_i在类别确定的条件下都是独立的,用公式表示如下: P(X=xi|Y=ck)=P(X=x1i,X=x2i,⋯,X=xni|Y=ck)=∏j=1nP(X(j)=xji|Y=ck) \begin{align} P(X=x_i|Y=c_k) &= P(X=x_i^1,X=x_i^原创 2016-08-27 17:19:42 · 2379 阅读 · 3 评论 -
deepin15.4双显卡安装cuda8.0(非optirun切换方法)
deepin15.4双显卡安装cuda8.0(非optirun切换方法)deepin15.4界面美观,但是对于安装cuda的教程比较少,大部分都是optirun切换方法,对于学习深度学习的用户不方便,特写此教程。原创 2017-10-23 03:20:19 · 3872 阅读 · 0 评论