- 博客(5)
- 资源 (2)
- 收藏
- 关注
原创 神经网络理论
1、cost function2、后向传播j = 0 就是 Bias unit, D 是cost function 每次剃度下降更新后变化的值,结合下面第四点理解3、octva 例子4、用下面的方式检查bp算法的dvec有没有算对(工程上)5、训练神经网络的步骤由于不收敛,往往取得的是局部最优解,但已足够...
2018-11-15 21:26:39 180
原创 支持向量机
@通用机器学习1、损失函数2、决策边界根据向量内积的定义,决策边界转化如下4、利用核和landmarks来学习更复杂的decision boundary此例子是高斯核,即衡量landmark和x之间的相似性(即欧几里得距离,最相似是1)5、参数设置6、多分类7、使用场景...
2018-11-15 21:12:59 186
原创 逻辑回归理论
(1)为什么损失函数需要添加log为了使函数更易收敛,也就是曲线更为光滑(2)损失函数(cost function)长咋样?为何是分段函数?数学上讲,log(x)的x 必须为正数,肯定有断点;逻辑上讲,分段采用不同函数形式才是符合实际需求的,即y = 1,h(x) = 0,损失函数需要最大才行完整的cost function J()Jval...
2018-11-15 21:05:21 229
原创 机器学习一般流程
@通用机器学习1 model selection比如逻辑回归的时候选择h是 x的几次方呢方法:划分数据集 training set / cross validation set / test set利用training set得到不同model的参数,再选择使 cv set 误差最小的那个htest set 不用来选择model,只用来评价在正则化的情况下,又如何选择参数lambda呢...
2018-11-15 21:01:54 520
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人