机器学习
MatrixYg
暂无
展开
-
感知器
深度学习基础(1):感知器是什么感知器就是下面这个图里面的东西,其实是模仿了神经元的操作。x1,x2…xn是输入的信号,wi是这个信号所占的权重,在胞体内部求和之后作为自变量输入到激活函数里面去,输入进去会得到一个输出值。这就是他要干的事情能干啥感知器其实看名字就知道了,是感知信号用的,最简单的一个例子就是可以做一个二分类操作。做一个简单的实验就是把激活函数的输出定义为一个只有0,1的输...原创 2019-12-25 23:30:52 · 256 阅读 · 1 评论 -
KNN算法
KNN算法问题提出依旧是分类问题,现在有了一数据集,数据集中的每个数据都有一个标签,那么多对于一个新的数据,他应该是属于哪个集合,也就是说他的标签应该是什么?例子比如当前这个图,红色的点具有标签A,蓝色的点具有标签B,现在来了一个新的点黑色点,那么这个黑色的点应该属于那一类?直观的来看,黑色的点应该是属于红色标记的点。也就是标签应该是A,因为一个很直观的感受就是它距离红色的点近,根据物以...原创 2019-12-22 15:58:11 · 285 阅读 · 0 评论 -
【机器学习】Numpy的使用
1.最近在训练之外也在学习机器学习当面的内容,先从numpy的使用开始吧。numpy是ML中的一个支持科学计算的很重要的包,初学者可能不知道怎么安装这个包,建议使用IDE开发。我是用的是PyCharm,在这里面我们可以很轻松的导入自己想要的包。在Pycharm中,我们在这里: IDE的右上角,有一个搜索的地方,...原创 2019-03-03 20:03:12 · 278 阅读 · 0 评论 -
【机器学习】一元线性回归
1.一元线性回归是学习机器学习的基础部分。通常的问题模型是:问题的结果一般只有一个因素影响(怎么可能在现实的生活中找到这么简单的问题???)并且和这个因子成近似线性的关系。我们可以通过线性回归来找到这条回归直线,进而可以预测到下一步的结果。由于我们需要把数据可视化掉,所以我们还是先看看基本的可视化数据的一些东西。(1)首先这是我们的数据:可以自己造数据...原创 2019-03-09 23:46:46 · 2238 阅读 · 0 评论 -
【机器学习】多项式回归
1前边我们说到了一元线性回归,其实很显然,我们直到对一件事的影响显然很少会只有一种因素,很多时候是多个因素互相作用。所以就有了多元线性回归,这个原理和一元线性回归的原理是一样的,没有很大的区别,使用的方法是梯度下降法,关于这个方法的实现可以参考一下数学书籍(因为我懒,嘻嘻)。关于多元线性回归我们就不再专门的讨论,其实一元线性回归懂了,多元线性回归就是加了一个维度,影响不大,原理没有大的变化。今天我...原创 2019-03-10 23:17:24 · 1322 阅读 · 0 评论 -
【机器学习】岭回归
1.在之前关于回归的讨论中,我们讨论了标准方程法,这一方法实际有比较大的缺陷,因为在标准方程法中,我们采使用了矩阵的一个很重要或者说很苛刻的性质:矩阵可逆。然而再很多的时候,矩阵是不可逆的。比如数据存在多重共线性的时候,(多重共线值得就是数据的若干个特征存在类似的回归性质,其实通俗一点举个例子就是:比如我们在接一个n元一次方程的时候,我们需要n个方程,但是并且这n个方程必须是互不相关的,比如有一个...原创 2019-03-19 18:03:54 · 5898 阅读 · 0 评论 -
【机器学习】标准方程法
1.前边我们说了几种常用的回归方法,他们虽然实现的方式不一样,但是思想几乎都是一样的-使用已经直到的函数来逼近问题,然后用这个逼近函数来近似的作为问题的解。我们知道,在使用梯度下降法来做回归的时候,我们有一个学习率的概念,然后再这个基础上,我们通过一次次的迭代来寻找全局最优解,梯度下降这个概念体现在我们再求解最有解的时候,当前解的转移是通过当前点的导数来寻找下一步的转移方向,叫做梯度下降,沿着梯度...原创 2019-03-11 23:17:15 · 928 阅读 · 0 评论 -
【机器学习】LASSO算法&弹性网络
1.在上一次我们说了Rigde回归。在那之间我们说了对于代价函数有两种正则化的方式:L1正则化和L2正则化。这两种正则化的目的有一个很重要的共同点就是抵抗多重共线性,在岭回归中我们使用的是L2正则化,那么今天就简单的说一下L1正则化。 上边的函数就是Lasso算法的代价函数,也是L1正则化之后的代价函数。在这种方法下,对于代价函数最小...原创 2019-03-20 23:00:21 · 5781 阅读 · 2 评论