![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Machine Learning & Algorithm
soullines
只若初见
展开
-
Machine Learning & 概率 & 随机变量 & 概率分布 & 事件的独立性
概率于Machine Learning而言还是比较重要的,但是概率的难点在于,其不够直观,那么换一个视角,我们称之为"上帝视角",将概率转化为面积,这样便会变的直观;1.概率的定义概率,顾名思义就是某事件发生可能性的一种量化,这是我们最直观的感受;下面从一个比较经典的案例来作为引入 — 蒙提霍尔问题:有ABC三扇门,其中有一扇是正确的门,打开有一辆豪车,其余两扇,门为错误的门,门内...原创 2019-06-05 19:29:01 · 475 阅读 · 0 评论 -
从标准方程,梯度下降窥探机器学习训练原理
机器学习的学习不应该仅仅停留在对scikit-learn or tensorflow(deep learning)框架的调用,而应该着眼于内部的世界,学习机器学习有一段时间了,有必要回头整理一下,下面我们基于线性模型来看标准方程梯度下降进而来看基于以上两者如何实现模型的训练,基本思想一致,不同的模型大家可以触类旁通下面我们分布阐述1.标准方程2.梯度下降3.机器学习模型训练过...原创 2019-06-19 15:32:40 · 398 阅读 · 2 评论 -
Logistic逻辑回归(sigmod二分类)成本函数推导 && 及其梯度下降
logistic逻辑回归是比较常用的二分分类,其激活函数适用于各种二分类场景,但是其函数在t极大或者极小的时候趋于饱和会引发梯度消失,进入影响网络调参使得函数不能很好的收敛有兴趣的同学可以参阅我的上一篇博客,来参看梯度消失&爆炸的原理:https://blog.csdn.net/soullines/article/details/94399187下面来看基于sigmod激活函数的og...原创 2019-07-31 21:54:51 · 2377 阅读 · 0 评论 -
深度学习计算图&计算图求导过程&向量化
深度学习中,计算是核心部分,所以一直在致力于提供算法网络的计算能力,比较基础的两种优化形式有:1.将计算过程做为一个计算图来进行运算,每个计算过程用节点来模拟,这样的好处可以分割运算,甚至可以多线程,多gpu开session来进行运算2.向量化:以tensorflow为例,进行向量化的运算,由于python独有的广播机制,向量化运算不需要显式的for循环,可以大大提高运算速度下面具体来看...原创 2019-07-31 22:04:47 · 2525 阅读 · 1 评论