机器学习
shmily_skx
玩累了就学会儿——
展开
-
Tensorflow学习笔记-构建网络模型
tensorflow常见网络搭建转载 2016-11-06 10:34:43 · 709 阅读 · 0 评论 -
为什么在训练神经网络时候比较适合使用交叉熵错误率,而不是分类错误率或是均方差
为什么在训练神经网络时候比较适合使用交叉熵错误率,而不是分类错误率或是均方差,这样看起来ACE和均方差明显优于分类错误率,同时ACE和均方差相比差别不大。但是,考虑到均方差计算量要稍大于ACE。转载 2016-11-06 12:42:57 · 3073 阅读 · 1 评论 -
使用sklearn进行数据预处理 —— 归一化/标准化/正则化
本文主要是对照scikit-learn的preprocessing章节结合代码简单的回顾下预处理技术的几种方法,主要包括标准化、数据最大最小缩放处理、正则化、特征二值化和数据缺失值处理。内容比较简单,仅供参考!转载 2016-10-27 15:47:56 · 16450 阅读 · 0 评论 -
机器学习笔记——梯度下降法
梯度下降法是一种求取极小值的方法,但其求得的结果只能说是可能为全局最小值,因为还有可能求得的结果是局部最小值,这与初始位置有关。下面用一个例子引入梯度下降法。从下图中我们能很直观的看出一条紫色的虚线把红点和蓝块分成了两类,如果这时引入一个新的图形(用黑色三角形表示),告诉你这个图形属于这两类中的一类,我们会很自然的把它归到红点所在的那一类中。为什么呢?物以类聚,它和红点都在紫色虚线以下!这是他原创 2016-10-19 16:54:56 · 489 阅读 · 0 评论 -
机器学习中常用的传递函数总结
传递函数是在神经网络中用到的,在这里先列举一下原创 2016-10-20 22:55:23 · 5455 阅读 · 0 评论