大白话人工智能机器学习算法
文章平均质量分 87
以通俗易懂的话语 让你翱翔在机器学习的海洋里!本系列将通过大白话描述每一个机器学习算法的来源,应用和推导。以讲诉的方式让你对机器学习真正的热爱而喜欢,并将这份热情带入到生活工作中中去。愿景是打造全网AI最通俗博客,赠人玫瑰,手有余香,在人工智能前行的路上一起前行。
L先生AI课堂
李虎,联想集团PCSD业务UDS平台推荐算法团队开发负责人,曾获2018-2019年度联想集团中国区优秀员工。在联想内部,做过多次企业内训和技术支持,并在北京线下技术沙龙分享会上作为演讲嘉宾分享算法实战应用效果,拥有丰富的线上,线下培训经验。对机器学习,深度学习算法建模,推荐系统,大数据有多年的实际经验。CSDN博客专家,著有大白话算法系列,以通俗生动的方式讲解人工智能前沿算法。愿景是打造全网AI最通俗教学,赠人玫瑰,手有余香,在人工智能前行的路上一起前行,以通俗简洁详细的方式,让每一位热爱着深入其中。空间有形、梦想无限!加油!
展开
-
大白话5分钟带你走进人工智能系列-------目录
目录 大白话5分钟带你走进人工智能-第一节开篇介绍以及线性回归简介篇 大白话5分钟带你走进人工智能-第二节概率基础及高斯分布 大白话5分钟带你走进人工智能-第三节最大似然推导m...原创 2019-12-12 10:36:42 · 2323 阅读 · 1 评论 -
浅谈Graph Embedding(一)
本文主要介绍Graph Embedding算法背景引入和Graph Embedding 介绍以及Graph Embedding算法之Deep Walk原创 2023-02-03 16:05:34 · 745 阅读 · 0 评论 -
值得看!!!---大白话5分钟带你走进人工智能-第32节集成学习之最通俗理解XGBoost原理和过程
大白话系列更新了~~链接如下:https://blog.csdn.net/LHWorldBlog/article/details/103504725目录如下:本节讲解XGBoost的原理~目录1、回顾:1.1 有监督学习中的相关概念1.2 回归树概念1.3 树的优点2、怎么训练模型:2.1 案例引入2.2 XGBoost目标函数求解3、XGB...原创 2020-01-03 12:05:21 · 981 阅读 · 3 评论 -
大白话5分钟带你走进人工智能-第31节集成学习之最通俗理解GBDT原理和过程
目录1、前述2、向量空间的梯度下降:3、函数空间的梯度下降:4、梯度下降的流程:5、在向量空间的梯度下降和在函数空间的梯度下降有什么区别呢?6、我们看下GBDT的流程图解:7、我们看一个GBDT的例子:8、我们看下GBDT不同版本的理解:1、前述从本课时开始,我们讲解一个新的集成学习算法,GBDT。首先我们回顾下有监督学习。假定有N个训练样本,, 找到一...原创 2019-12-12 11:11:34 · 645 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第30节集成学习之Boosting方式和Adaboost
目录1、前述:2、Bosting方式介绍:3、Adaboost例子:4、adaboost整体流程:5、待解决问题:6、解决第一个问题:如何获得不同的g(x):6.1 我们看下权重与函数的关系:6.2 gt和un的关系数学公式表达:6.3 引导Un+1的思路:6.4 推导Un+1的由来:6.5 规划因子的由来:7、解决第二个问题:α的计算:...原创 2019-12-12 11:15:25 · 1088 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第二十九节集成学习之随机森林随机方式 ,out of bag data及代码(2)
大白话5分钟带你走进人工智能-第二十九节集成学习之随机森林随机方式 ,out of bag data及代码(2)上一节中我们讲解了随机森林的基本概念,本节的话我们讲解随机森林的随机方式,以及一些代码。目录1-随机森林随机方式2-out of baf data3-代码1-随机森林随机方式 我们先来回顾下随机森林中都有哪些...原创 2019-05-18 22:07:27 · 1467 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第二十八节集成学习之随机森林概念介绍(1)
第二十八节集成学习之随机森林概念介绍(1)从本系列开始,我们讲解一个新的算法系列集成学习。集成学习其实是怎么样去应用决策树解决一些问题。在机器学习领域集成学习是一种非常简单直接的提升分类器回归器预测效果的一种思路。决策树有一个困境,当层数太深的时候会有过拟合问题,当我不想过拟合,就通...原创 2019-05-18 16:56:21 · 777 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第二十七节决策树系列之预剪枝和后减枝和叶子结点如何表达(6)
第二十七节决策树系列之预剪枝和后减枝(6)上一节中我们讲解了决策树中的回归树的问题Cart树,我们再来回顾下,决策树的四个问题。1、它分几支。2、它怎么判断分裂条件。有Gini系数,MSE等。3、它什么时候停止?4、叶子节点怎么表达。对于分类来说是类别,对于回归来说是叶子节点内的...原创 2019-05-16 22:10:44 · 706 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第二十六节决策树系列之Cart回归树及其参数(5)
第二十六节决策树系列之Cart回归树及其参数(5)上一节我们讲了不同的决策树对应的计算纯度的计算方法,其实都是针对分类来说,本节的话我们讲解回归树的部分。目录1-Cart回归树的概念1-代码详解1-Cart回归树的概念对于回归树来说,之前咱们讲的三个决策树(ID3,C4.5...原创 2019-05-16 21:13:24 · 1029 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第二十五节决策树系列之信息增益和信息增益率(4)
第二十五节决策树系列之信息增益和信息增益率(4)上一节我们讲解了决策树的分裂条件以及评估纯度的其中一个方式,基尼系数。本节的话,我们再讲解一个评估纯度的方式,基于信息增益的方式,即ID3树使用的评估方式。它办的事跟Gini系数一样,也是评价纯度,但是它更客观一点,但它算起来比Gini系...原创 2019-05-14 03:00:29 · 1244 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第二十四节决策树系列之分裂流程和Gini系数评估(3)
第二十四节决策树系列之分裂流程和Gini系数评估(3)上一节中我们讲解了决策树的数学表达形式,本节的话我们讲解决策树的分裂流程以及分裂条件的评估。我们基于决策树的递归表达式上: 就可以知道训练一颗决策树需要哪些条件?台湾大学林轩田教授给我们一个总...原创 2019-05-12 17:40:13 · 1156 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第二十三节决策树系列之特点和数学表达形式(2)
第二十三节决策树系列之特点和数学表达形式(2)上节我们讲解了决策树的概念,本节的话我们讲解决策树的特点以及其数学表达形式。目录1-决策树的特点2-决策树的数学表达形式1-决策树的特点决策树的特点大致有以下几种:1、可以处理非线性问题。逻辑回归处理非线性问题有一些捉襟见肘,没有特别...原创 2019-05-09 14:18:35 · 872 阅读 · 0 评论 -
大白话5分钟带你走进人工智能 - 第二十二节决策树系列之概念介绍(1)
第二十二节决策树系列之概念介绍(1)本系列我们讲一个新算法及其衍生出来的系列算法,决策树,随机森林以及集成学习。无论是线性回归,逻辑回归,SVM,最大熵模型也好,都是w做参数,而我们的最终结果无论需要预测还是要分类,都是把x跟w互相搞一搞,然后得出一个结果。我们的y是通过x跟自己学的参数计算出来的,而...原创 2019-05-05 22:25:49 · 887 阅读 · 0 评论 -
大白话5分钟带你走进人工智能 - 第二十一节 牛顿法和L-BFGS求函数最优解
第二十一节 牛顿法和L-BFGS求函数最优解这一节中,我们讲解一个新的求函数最优化的方法就是L-BFGS。以下是本节目录。 目录1-L-BFGS算法简介2-牛顿法求根问题3-牛顿法求驻点问题4-牛顿法求驻点的本质5-多元函...原创 2019-12-12 11:46:17 · 753 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第二十节逻辑回归和Softmax多分类问题(5)
大白话5分钟带你走进人工智能-第二十节逻辑回归和Softmax多分类问题(5)上一节中,我们讲解了逻辑回归的优化,本节的话我们讲解逻辑回归做多分类问题以及传统的多分类问题,我们用什么手段解决。先看一个场景,假如我们现在的数据集有3个类别,我们想通过逻辑回归建模给它区分出来。但我们知道逻辑回归本质上是区分二分类的算法模型。难道没有解决办法了吗?...原创 2019-05-01 18:42:20 · 1225 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第十九节逻辑回归之优化点(4)
第十九节逻辑回归之优化点(4)上一节中我们讲解了逻辑回归导函数求解的问题,一步步推导出交叉熵损失函数的梯度。很是不容易,这节中我们一起看下逻辑回归的优化有哪些点?第一点关于逻辑回归优化:和多元性回归是一模一样。要不要设置w0?比如下图:之前说多元性回归是做拟合,...原创 2019-05-01 02:11:47 · 777 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第十八节逻辑回归之交叉熵损失函数梯度求解过程(3)
第十八节逻辑回归之交叉熵损失函数梯度求解过程(2)上一节中,我们讲解了交叉熵损失函数的概念,目标是要找到使得损失函数最小的那组θ,也就是l(θ)最大,即预测出来的结果在训练集上全部正确的概率最大。那我们怎么样找到我们的最优解呢?上节中提出用梯度下降法求解,本节的话我们对其具体细节展开。先来看下我们...原创 2019-04-30 19:20:12 · 1068 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第十七节逻辑回归之交叉熵损失函数概念(2)
第十七节逻辑回归之交叉熵损失函数概念(2)上一节中我们讲解了逻辑回归是做分类的原因,本节的话我们讲解逻辑回归的损失函数-交叉熵损失函数。逻辑回归,是要做分类的,最重要的是要去分界,这个逻辑回归它是怎么找分界?首先它有回归两个字,我们可以转成另外两个字,拟合。所以逻辑回归找...原创 2019-04-29 17:38:08 · 1077 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第十六节逻辑回归之分类的原因(1)
第十六节逻辑回归做分类的原因(1)从本节开始,我们讲解一个新的算法,逻辑回归。多元性回归是做回归的,它真的是回归这个领域里面的一个算法。对于有监督机器学习来说,除了做回归还可以做分类。逻辑回归是一个分类的算法。回归跟分类它俩都是有监督的机器学习,有什么区别呢?区别在于y。...原创 2019-04-28 22:00:14 · 1422 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第十五节L1和L2正则几何解释和Ridge,Lasso,Elastic Net回归
第十五节L1和L2正则几何解释和Ridge,Lasso,Elastic Net回归上一节中我们讲解了L1和L2正则的概念,知道了L1和L2都会使不重要的维度权重下降得多,重要的维度权重下降得少,引入L1正则会使不重要的w趋于0(达到稀疏编码的目的),引入L2正则会使w的绝对值普遍变小(达到权值衰减的目的)。本节的话我们从...原创 2019-04-28 01:30:10 · 1420 阅读 · 1 评论 -
大白话5分钟带你走进人工智能-第十四节过拟合解决手段L1和L2正则
第十四节过拟合解决手段L1和L2正则第十三节中,我们讲解了过拟合的情形,也就是过度的去拟合训练集上的结果了,反倒让你的模型太复杂。为了去解决这种现象,我们提出用L1,L2正则去解决这种问题。怎么把正则应用进去?我们重新审视目标函数,以前我们可以理解目标函数和损失...原创 2019-04-27 17:25:07 · 1008 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第十三节多项式回归之维度爆炸和过拟合
第十三节多项式回归之维度爆炸和过拟合接下来我们进入下一个问题,叫多项式回归,它其实一点都不复杂。假如对于非线性的数据点,我们如何用现有你已经知道的知识来拟合?举个例子,人的年龄跟去医院的次数是一条线性的这么一个规律吗?应该不是,因为年轻的时候很长一段时间不...原创 2019-04-22 02:06:57 · 1805 阅读 · 3 评论 -
大白话5分钟带你走进人工智能-第十二节梯度下降之背后的原理之泰勒公式(7)
大白话5分钟带你走进人工智能-第十二节梯度下降之背后的原理之泰勒公式(7) 我们接下来给大家深化一下,梯度下降背后到底是什么原理?谈到这个,我们要谈到一个叫泰勒展开的这么一个数学定理,泰勒发现任何一个函数不用管它有多复杂,不管它什么样,千奇百怪的任何一个函数,都可以写成关于N阶导数的一个多项式。即...原创 2019-04-16 22:31:57 · 1315 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第十一节梯度下降之手动实现梯度下降和随机梯度下降的代码(6)
第十一节梯度下降之手动实现梯度下降和随机梯度下降的代码(6)我们回忆一下,之前咱们讲什么了?梯度下降,那么梯度下降是一种什么算法呢?函数最优化算法。那么它做的是给我一个函数,拿到这个函数之后,我可以求这个函数的导函数,或者叫可以求这个函数的梯度。导函数是一个数儿,梯度是一组数,求出来梯度之后怎么用?把你瞎蒙出来的这组θ值,减去...原创 2019-04-14 23:10:14 · 964 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第十节梯度下降之归一化的各种方式和必要性(5)
第十节梯度下降之归一化的各种方式和必要性(5)上一节中我们讲解了梯度下降的函数最优化算法和梯度下降代码过程,了解了梯度下降的代码实现过程,本节的话我们讲解一个梯度下降之前必要的数据准备,归一化。先看一个例子,假如你收集到一个数据集,一列是年龄,一列是身高(厘米)。比如体重的数据都是60,65。身高的数据...原创 2019-04-11 22:07:33 · 1070 阅读 · 2 评论 -
大白话5分钟带你走进人工智能-第九节梯度下降之函数最优化算法和梯度下降代码过程解析(4)
第九节梯度下降之函数最优化算法(4)上一节中我们介绍了梯度下降的两种方式,批量梯度下降和随机梯度下降的两种方式,介绍了其具体的梯度下降的方式。本节的话,我们介绍一种函数最优化的算法。以后一听到函数最优化算法,就理解它就是一个工具,交给它一个函数,我给你找到它的最小值在哪。只有...原创 2019-04-10 00:12:15 · 859 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第八节梯度下降之批量梯度下降和随机梯度下降(3)
第八节梯度下降之批量梯度下降和随机梯度下降(3)上一节中,我们讲解了梯度下降的大概流程,从多元问题了解举例了解了梯度更新的过程,本节的话我们接着上一节的问题继续。把问题再陈述一遍:...原创 2019-04-09 01:12:37 · 997 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第七节梯度下降之梯度概念和梯度迭代过程(2)
第七节梯度下降之梯度概念和梯度迭代过程(2)上一节中针对一元函数,找到了一个看起来还不错的一种寻求数值上的最小值的这种方式。大致是这么一个流程,F(w)和F'(w),上来先瞎蒙出来一组w,然后带到这里边能得到一个结果,然后该开始迭代了,w1等于w0加上负的F`(w)还得乘一个λ,我们...原创 2019-04-07 15:35:01 · 1122 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第六节梯度下降之从单元函数理解梯度下降过程(1)
第六节梯度下降之从单元函数理解梯度下降过程(1) 我们先来回顾下多元线性回归整体的流程是: 首先要有一个数据集,就是一个x矩阵和一个y向量,不再是一张表。x矩阵的行是一个数据单位,或者叫一个数据点,列代表各种各样的特征。通常习惯把它标记为m行n列,也就是x里面有m条数据,n个特征。...原创 2019-04-06 21:18:01 · 1133 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第五节解析解方式求解模型参数
第五节解析解方式求解模型参数 第四节中我们讲解了最大似然和最小二乘之间的关系,通过数学原理找到了损失函数为MSE的理论支撑。本节的话我们讲解怎么样基于目标函数为MSE的情况下,找到最合适的参数模型。在此之前,我们总结下通过最大似然估计建立目标函数思...原创 2019-12-11 11:33:47 · 1301 阅读 · 0 评论 -
大白话5分钟带你走进人工智能-第四节最大似然推导mse损失函数(深度解析最小二乘来源)(2)
第四节最大似然推导mse损失函数(深度解析最小二乘来源)(2) 上一节我们说了极大似然的思想以及似然函数的意义,了解了要使模型最好的参数值就要使似然函数最大,同时损失函数(最小二乘)最小, 留下了一个问题,就是这两个因素或者目的矛盾吗?今天我们就接着上面的问题继续解剖下去。 我们再来回顾下似...原创 2019-12-11 11:51:53 · 965 阅读 · 2 评论 -
大白话5分钟带你走进人工智能-第三节最大似然推导mse损失函数(深度解析最小二乘来源)(1)
第三节最大似然推导mse损失函数(深度解析最小二乘来源) 在第二节中,我们介绍了高斯分布的来源,以及其概率密度函数对应的参数的解释。本节的话,我们结合高斯分布从数学原理部分解释为什么损失函数是最小二乘。 我们再来回归下高斯分布的概率密度函数实际上是这个形式的:f(x)=1σ2πe−(x−u)22σ2f(x)=\frac{1}{\sigma ...原创 2019-12-11 11:59:03 · 1365 阅读 · 2 评论 -
大白话5分钟带你走进人工智能-第二节概率基础及高斯分布
第二节:概率基础及高斯分布上一节中我们讲述了机器学习的常规套路,以及一些基础的概念,比如损失函数,随机变量等。了解了线性回归中的损失函数是最小二乘,那么本节我们通过数学的角度证明为什么是最小二乘?所以有必要铺垫一个很重要的概率密度函数,高斯分布。...原创 2019-10-28 17:58:18 · 2681 阅读 · 8 评论 -
大白话5分钟带你走进人工智能-第一节开篇介绍以及线性回归简介篇
一、前述 一直以来都想用很简介或者很普通的方式聊下各个算法的前龙后脉,让更多的人都能看懂算法的过程。查看了网上很多博客,不是写的太笼统就是抄来抄去,根本没有阅读的欲望,很是让人浪费时间,也学不到真正的东西,一直半解。因为年前一直在忙着公司上...原创 2019-10-28 17:56:53 · 12047 阅读 · 10 评论