机器学习
机器学习理论与实战的场地
月落乌啼silence
不积跬步,无以至千里
展开
-
《机器学习实战》--逻辑斯蒂回归<二>
梯度下降可视化前一篇看完了理论,我们来实战一下,首先看一下梯度下降的效果 先看代码# 目标函数def func(x): return np.square(x)# 目标函数一阶导数def dfunc(x): return 2 * xdef GD_momentum(x_start, df, epochs, lr, momentum): xs = np.zeros(epoch原创 2017-12-02 22:41:33 · 2025 阅读 · 0 评论 -
《机器学习实战》-- 逻辑斯蒂回归<一>
引言 回归我们知道有线性回归,线性回归模型能够无限的逼近我们的结果。以(xi,yi)(x_{i}, y_{i})为例,通过线性回归 f(x)=wTx+bf(x)=w^{T}x+b表达式,就可以得到我们对yiy_{i}的估计值。回归到分类 如何从线性回归转换到分类呢?由于线性回归得到的是连续值,z=wTx+bz=w^Tx+b,zz的范围[−∞,∞][-\infty, \infty],是这样的一个连原创 2017-12-02 21:47:56 · 3093 阅读 · 3 评论 -
极大似然估计
在学统计学习方法的时候,里面经常提到最大似然函数,但是我一直不知道他代表什么意思,或者说每次要求参数的时候,都是先根据已有的分布连乘,然后求参数就行了。这种做法让我很困扰,今天就百度了一下, 看到了各路大神的解释,心中有些谱了,就在这里简单记录一下,尽量不涉及公式。 极大似然估计就是利用已有样本的信息,反推最有可能导致这种情况出现的模型参数。即你手头有一堆样本,这些样本的值都已经出现,也就是找原创 2017-11-27 23:36:56 · 2834 阅读 · 0 评论 -
<机器学习实战>--朴素贝叶斯实战(二)
一 前言 上一篇文章介绍了朴素贝叶斯的基本原理, 现在就来实践一下吧, 阅读了部分<机器学习实战>上的代码, 自己也敲了一遍, 做了一下验证, 现在就在这里分享一下. 环境: Ubuntu 16.04 Python 3.5.2 二 使用朴素贝叶斯进行文档分类2.1 准备数据: 从文本中构建词向量 加载数据'''加载训练数据, postingList是所有的训练集, 每一原创 2017-10-15 15:50:19 · 2464 阅读 · 0 评论 -
<机器学习实战>--朴素贝叶斯(一)
一 简介 朴素贝叶斯是基于概率论的一种分类方法,或者说是基于贝叶斯定理与特征条件独立假设的分类方法.该方法是用于分类问题,现实生活中用于病人的诊断,不当言论的分类等.由于其实现方法简单,计算效率高,所以应用还是比较广泛的. 二 概率模型 朴素贝叶斯就是一个概率模型, 再分类的过程中, 我们会计算这个样本属于每一个类别的概率, 然后求出其中的最大值, 最大值所对应的概率就是我们所确定的类.原创 2017-10-14 20:06:05 · 2059 阅读 · 0 评论