- 博客(7)
- 资源 (2)
- 收藏
- 关注
原创 大白话5分钟带你走进人工智能系列-------目录
目录 大白话5分钟带你走进人工智能-第一节开篇介绍以及线性回归简介篇 大白话5分钟带你走进人工智能-第二节概率基础及高斯分布 大白话5分钟带你走进人工智能-第三节最大似然推导m...
2019-12-12 10:36:42 2356 1
原创 大白话5分钟带你走进人工智能 - 第二十一节 牛顿法和L-BFGS求函数最优解
第二十一节 牛顿法和L-BFGS求函数最优解这一节中,我们讲解一个新的求函数最优化的方法就是L-BFGS。以下是本节目录。 目录1-L-BFGS算法简介2-牛顿法求根问题3-牛顿法求驻点问题4-牛顿法求驻点的本质5-多元函...
2019-12-12 11:46:17 766
原创 大白话5分钟带你走进人工智能-第30节集成学习之Boosting方式和Adaboost
目录1、前述:2、Bosting方式介绍:3、Adaboost例子:4、adaboost整体流程:5、待解决问题:6、解决第一个问题:如何获得不同的g(x):6.1 我们看下权重与函数的关系:6.2 gt和un的关系数学公式表达:6.3 引导Un+1的思路:6.4 推导Un+1的由来:6.5 规划因子的由来:7、解决第二个问题:α的计算:...
2019-12-12 11:15:25 1113
原创 大白话5分钟带你走进人工智能-第31节集成学习之最通俗理解GBDT原理和过程
目录1、前述2、向量空间的梯度下降:3、函数空间的梯度下降:4、梯度下降的流程:5、在向量空间的梯度下降和在函数空间的梯度下降有什么区别呢?6、我们看下GBDT的流程图解:7、我们看一个GBDT的例子:8、我们看下GBDT不同版本的理解:1、前述从本课时开始,我们讲解一个新的集成学习算法,GBDT。首先我们回顾下有监督学习。假定有N个训练样本,, 找到一...
2019-12-12 11:11:34 708
原创 大白话5分钟带你走进人工智能-第三节最大似然推导mse损失函数(深度解析最小二乘来源)(1)
第三节最大似然推导mse损失函数(深度解析最小二乘来源) 在第二节中,我们介绍了高斯分布的来源,以及其概率密度函数对应的参数的解释。本节的话,我们结合高斯分布从数学原理部分解释为什么损失函数是最小二乘。 我们再来回归下高斯分布的概率密度函数实际上是这个形式的:f(x)=1σ2πe−(x−u)22σ2f(x)=\frac{1}{\sigma ...
2019-12-11 11:59:03 1430 2
原创 大白话5分钟带你走进人工智能-第四节最大似然推导mse损失函数(深度解析最小二乘来源)(2)
第四节最大似然推导mse损失函数(深度解析最小二乘来源)(2) 上一节我们说了极大似然的思想以及似然函数的意义,了解了要使模型最好的参数值就要使似然函数最大,同时损失函数(最小二乘)最小, 留下了一个问题,就是这两个因素或者目的矛盾吗?今天我们就接着上面的问题继续解剖下去。 我们再来回顾下似...
2019-12-11 11:51:53 1007 2
原创 大白话5分钟带你走进人工智能-第五节解析解方式求解模型参数
第五节解析解方式求解模型参数 第四节中我们讲解了最大似然和最小二乘之间的关系,通过数学原理找到了损失函数为MSE的理论支撑。本节的话我们讲解怎么样基于目标函数为MSE的情况下,找到最合适的参数模型。在此之前,我们总结下通过最大似然估计建立目标函数思...
2019-12-11 11:33:47 1342
经典CNN论文.zip
2019-12-11
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人