机器学习
迷路剑客
弱小和无知不是生存的障碍,傲慢才是。
展开
-
推荐系统笔记
协同过滤笔记0x01 摘要协同过滤是推荐算法中最容易理解、最常用的推荐算法之一。0x02 关键概念协同过滤分为基于用户和基于物品两类需要计算出用户购买物品矩阵,据此来计算得出用户相似度矩阵和物品相似度矩阵基于用户的推荐,可以在用户A购买商品x的时候将该商品也推荐给和用户A相似的用户B注意:基于用户的推荐,需要去中心化。因为可能每个用户对商品打分的心理分值标准不一致,所以需要减去其...原创 2018-10-13 22:45:45 · 157 阅读 · 0 评论 -
无监督和有监督算法的区别
无监督和有监督算法的区别转载声明本文大量内容系转载自以下文章,有删改,并参考其他文档资料加入了一些内容:无监督和有监督算法的区别作者:keepreder出处:CSDN转载仅为方便学习查看,一切权利属于原作者,本人只是做了整理和排版,如果带来不便请联系我删除。0x01 有监督学习有监督学习:对具有概念标记(分类)的训练样本进行学习,以尽可能对训练样本集外的数据进行标记(分类)预测...转载 2019-02-06 23:05:05 · 34555 阅读 · 1 评论 -
机器学习笔记-简单线性回归
机器学习笔记-简单线性回归摘要简单线性回归是最简单易懂的回归模型(针对连续性变量)。主要的知识点有SSE, 梯度下降等0x01 基本概念1.1简单线性回归重要的一点是利用历史数据找到y=ax+b的系数a和b,使得历史数据的SSE即平方误差和最小。找寻的方法是梯度下降。1.2 步骤随机初始化a,b,并计算此时的SSE之和梯度下降。将SSE=1/2(Y-Ypredict)^2对a求...原创 2019-02-07 01:07:48 · 245 阅读 · 0 评论 -
多元线性回归
多元线性回归摘要前面学习的简单线性回归,只有一个变量X。但在真实场景中往往样本中有多个变量。这里我们就学习下多元线性回归。0x01 关键概念多元是指多个变量。h(x) = theta(0)* + theta(1)*x(1) + … + theta(n)*x(n)利用梯度下降或最小二乘法计算参数theta0x02 梯度下降和最小二乘法的选择数据量小的时候用最小二乘因为大数据量时矩...原创 2019-02-07 13:07:54 · 405 阅读 · 0 评论 -
机器学习好文推荐
机器学习好文推荐GitHub万星的ML算法面试大全介绍GitHub万星的ML算法面试大全原创 2019-02-22 14:18:21 · 320 阅读 · 0 评论 -
方差和偏差的区别
方差和偏差的区别转载声明本文大量内容系转载自以下文章,有删改,并参考其他文档资料加入了一些内容:方差和偏差的区别作者:blcblc出处:CNBLOGS0x01 偏差方差与射击敌人想象你开着一架黑鹰直升机,得到命令攻击地面上一只敌军部队,于是你连打数十梭子,结果有一下几种情况:子弹基本上都打在队伍经过的一棵树上了,连在那棵树旁边等兔子的人都毫发无损,这就是方差小(子弹打得很集中...转载 2019-02-22 22:56:18 · 20880 阅读 · 2 评论 -
机器学习-特征工程-归一化
机器学习-特征工程-归一化转载声明本文大量内容系转载自以下文章,有删改,并参考其他文档资料加入了一些内容:为什么要对数据进行归一化处理?作者:忆臻出处:知乎转载仅为方便学习查看,一切权利属于原作者,本人只是做了整理和排版,如果带来不便请联系我删除。摘要在喂给机器学习模型的数据中,对数据要进行归一化的处理。为什么要进行归一化处理,下面从寻找最优解这个角度给出自己的看法。0x0...转载 2019-02-18 13:54:42 · 495 阅读 · 0 评论 -
机器学习笔记-CART树
机器学习笔记-CART树摘要CART树可以回归树或分类树CART树采用L2-norm作为损失函数度量追求方差 即(Y预测-y)^2 最小GBDT中是基于CART回归树,其也追寻方差最小来构建GBDT树,但在构建过程中后面的树是基于前一棵树的残差0x01 CART树示例继续构建CART树如下:...原创 2019-02-23 17:15:09 · 283 阅读 · 0 评论 -
机器学习笔记-朴素贝叶斯
机器学习笔记-朴素贝叶斯0x01 贝叶斯定律全概率公式如下:条件概率公式如下:贝叶斯公式如下:上式中,等式左边P(Bi|A)为A发生时Bi发生的概率,即Bi的后验概率P(Bi)为Bi发生的概率,即Bi的先验概率P(A|Bi)为Bi发生后A发生的概率,即A的后验概率等式右边分母为P(A)即A的发生概率(全概率公式)0x02 分类概率模型在判断某个样本属于某个指定分类C...原创 2019-02-06 00:31:38 · 180 阅读 · 0 评论 -
推荐分享
推荐分享流量变现-广告人推荐核心:匹配 相似性 : 人和人、物品和物品、用户特征和商品特征排序算法协同过滤:数据要的少,效果可以 使用普遍广义线性模型: 特征拟合,找用户特征深度学习: 数据中自动找特征强化学习: 人工干预很少,封闭系统。类似人主动学习。趋势:搜索和推荐融合AI和传统算法隐私政策强时,数据少,就用小样本和端、端云协统技术协同过滤矩阵分解...原创 2018-11-30 15:45:45 · 175 阅读 · 1 评论 -
机器学习笔-常用python库
Python下有很多关于机器学习的库,最常用的组合有以下四个:NumPy :主要用来做一些科学运算,主要是矩阵的运算。NumPy为Python带来了真正的多维数组功能,并且提供了丰富的函数库处理这些数组。它将常用的数学函数都进行数组化,使得这些数学函数能够直接对数组进行操作,将本来需要在Python级别进行的循环,放到C语言的运算中,明显地提高了程序的运算速度。scipy:主要是一些科学工具集...转载 2018-10-08 23:52:00 · 204 阅读 · 0 评论 -
机器学习笔记-常用python库总结
常用python机器学习库总结转载声明:本文转自https://www.cnblogs.com/Fighting365/p/6132707.html,作者Fighting365转载仅为方便学习查看,一切权利属于原作者,如果带来不便请联系我删除。开始学习Python,之后渐渐成为我学习工作中的第一辅助脚本语言,虽然开发语言是Java,但平时的很多文本数据处理任务都交给了Python。这些年来...转载 2018-10-08 23:55:07 · 536 阅读 · 0 评论 -
ipython: ModuleNotFoundError: No module named ‘graphviz‘
在python代码中有一句import graphviz报错是:ModuleNotFoundError: No module named 'graphviz'这个是因为没有安装graphviz。我的是mac,直接执行brew install graphviz安装graphviz,就ok了。...原创 2018-10-09 11:56:15 · 5011 阅读 · 2 评论 -
轻松看懂机器学习十大常用算法
轻松看懂机器学习十大常用算法转载声明:本文转自轻松看懂机器学习十大常用算法作者:数据与算法之美转载仅为方便学习查看,一切权利属于原作者,如果带来不便请联系我删除。0x01 摘要通过本篇文章大家可以对ML的常用算法形成常识性的认识。没有代码,没有复杂的理论推导,仅是图解,介绍这些算法是什么以及如何应用(例子主要是分类问题)。以后有机会再对单个算法做深入地解析。今天介绍的算法如下:...转载 2018-10-09 18:43:15 · 260 阅读 · 0 评论 -
机器学习笔记-KNN
机器学习笔记-KNN0x00 系列文章目录机器学习笔记-KNN机器学习笔记-决策树0x01 摘要K近邻(KNN),全名为k nearest neighbours,最近的K个邻居。核心思想是找到目标节点最近的K个样本点,将他们的Y值(分类)计数,取最多的那个分类作为结果。0x02 实现代码下面是一个简易的KNN代码:import numpy as npfrom collec...原创 2018-10-09 23:34:35 · 314 阅读 · 0 评论 -
机器学习笔记-决策树
机器学习笔记-决策树0x00 系列文章目录机器学习笔记-KNN机器学习笔记-决策树0x01 摘要决策树,decision tree,是一种通过一层层判断分支来进行分类的算法,这种结构类似一棵倒着的树,所以叫决策树。决策树的树根在最上方,树杈和叶子在下方。0x02 详细介绍下面是一个简单的决策树的示意图:决策树最重要的两个问题就是思考特征选择的标准和分割点选择。谁来做上一级...原创 2018-10-10 11:03:32 · 273 阅读 · 0 评论 -
机器学习笔记-分类和回归的区别
机器学习笔记-分类和回归的区别0x01 区别分类和回归是机器学习里面的基本概念,虽然都是通过某种算法模型来推断给点样本数据的输出,但还是有很大区别。分类分类问题往往是预测几个离散的值,比如预测一个人是亚洲人 非洲人 欧洲人 美洲人。分类,是一种定性输出,也叫离散变量预测。要注意常用的回归模型之一:逻辑回归虽然名为回归,但其实是用sigmoid函数做的分类模型。回归回归问题往往...原创 2018-10-16 22:18:46 · 834 阅读 · 0 评论 -
机器学习笔记-信息熵
0x01 摘要本文简单介绍 信息熵、条件熵、信息增益、交叉熵等熵相关的基础概念。0x02 熵2.1 信息量信息的大小跟随机事件的概率有关:越小概率的事情发生了产生的信息量越大(目睹飞碟);越大概率的事情发生了产生的信息量越小(太阳东升西落)。因此一个具体事件的信息量应该是随着其发生概率而递减的,且不能为负。2.2 信息熵而信息熵则是在结果出来之前对可能产生的信息量的期望——信息熵是考虑...原创 2018-10-16 22:49:53 · 575 阅读 · 0 评论 -
机器学习笔记-逻辑回归
机器学习笔记-逻辑回归0x00 系列文章目录机器学习笔记-KNN机器学习笔记-决策树[机器学习笔记-逻辑回归]()0x01 摘要逻辑回归,一种名为回归其实是解决分类问题的算法。0x02 详细介绍逻辑回归中最要的sigmoid函数如下:Sigmoid函数图像如下:Sigmoid的好处是自变量取值为负无穷到正无穷,但是Y值属于(0,1),且x=0时Y= 0.5。逻辑回...原创 2018-10-16 23:53:05 · 552 阅读 · 0 评论 -
机器学习-最小二乘
机器学习-最小二乘转载声明本文大量内容系转载自以下文章,有删改,并参考其他文档资料加入了一些内容:机器学习应该准备哪些数学预备知识?作者:Jacky Yang出处:知乎摘要大家可以随意搜索一下,相关的文章很多。长篇大论的不少,刚入门的朋友一看到那些公式可能就看不下去了。比如下面的解释:毫无疑问,这样的解释是专业的,严谨的。事实上,这是深度学习圣经里的解释。我并没有诋毁大师的意...转载 2019-03-20 10:20:40 · 199 阅读 · 0 评论