python机器学习 - 走进机器学习
学习机器学习的基本概念和相关的基础知识。
这个学习阶段的目标使掌握机器学习包含的基础概念,基本方法和基础原理,了解常用模型和处理机器学习任务的基本方法
这个阶段是一个不断深化,不断补充,不断学习进步的阶段
这个阶段学习目前的参考资料是吴恩达的机器学习课程
ZachhhBweg
时间宝贵,不多哔哔
展开
-
Gradient Boost回归实例化解析
文章目录Gradient Boost特性 - 相对于AdaBoostGradient Boost原理Gradient Boost生成原理Gradient Boost 数学原理输入本文通过文字方式记录YT StatQuest关于Gradient Boost的系列讲解,方便总结回顾视频内容。理性前提为了解决策树和AdaBoost的相关内容。Gradient Boost有广泛的解释方法,此为最常用而且比较好理解的一种。多图预警Gradient Boost特性 - 相对于AdaBoostGradien原创 2020-08-11 11:47:51 · 1004 阅读 · 0 评论 -
Adaboost实例化完全解析
文章目录什么是Adaboost?如何生成Adaboost?获得排序顺序category特征continual特征影响力分配总过程使用AdaBoost预测本文前提假设已了解决策树和随机森林。图片资源来自YT StatQuest。什么是Adaboost?Adaboost是由多个决策树桩(最简单的二分决策树)组成的森林体系(forest):相比于随机森林,Adaboost主要体现出了以下随机森林不具备的特性:全部使用weak leaners - 也就是决策树桩 - 来进行分类,每个特征对应一个树桩原创 2020-08-09 11:05:22 · 614 阅读 · 0 评论 -
Andrew Ng带我漫步机器学习 - 第十一周 OCR
OCRpipelineOCR识别原理人工数据层级分析pipelinepipeline是解决一个机器学习任务的各项步骤及其执行顺序,以photo OCR为例:Photo OCR可以分为文本识别,字符分割和字符识别三个过程,依次完成,就如同管道一样,依次向前OCR识别原理选择一定像素长度和宽度的方框,自顶向下以几个像素单位逐渐扫描整个图片对识别出来的文本进行判断图中,y=1表...原创 2020-03-21 19:41:16 · 169 阅读 · 0 评论 -
Andrew Ng带我漫步机器学习 - 第十周 处理大数据
大数据大数据梯度下降随机梯度下降随机梯度下降算法算法评估随机梯度下降优化小批量梯度下降在线学习分布式计算机系统和数据平行大数据梯度下降机器学习近阶段的进步很大一部分来自数据集和算力的爆炸性增长,比如神经网络算法面对大数据时,仍然使用常规的梯度下价格算法会带来巨大的计算量根据学习曲线,减少数据集时可行的。随着训练样本增多,误差值越来越平稳,不需要重复计算随机梯度下降随机梯度下降算法...原创 2020-03-21 17:14:52 · 104 阅读 · 0 评论 -
Andrwe Ng带我漫步机器学习 - 第九周 异常检测模型和推荐系统
异常检测模型密度估计高斯分布(正态分布)密度估计算法单个样本样本集异常检测问题的目的是通过训练已知异常或正常的样本集,获得能够检测新样本正常与否的模型异常检测模型模型拥有明确的标签分类(异常/正常,合格/不合格),但是却主要用于非监督学习如图,寻找合适的数学模型计算样本特征值,获得概率p(x)p(x)p(x),根据概率是否满足阈值条件进行分类判断,如计算机性能检测和制造业异常检测密度估计...原创 2020-03-20 15:45:18 · 182 阅读 · 0 评论 -
Andrew Ng带我漫步机器学习 - 第八周 非监督学习K-means算法与PCA
非监督学习集群(clustering)K-means算法连续集群集群(clustering)非监督学习与监督学习的区别可以从以下几个考虑原始数据没有标签原始数据集没有明确关系或明显的分类特征原始数据集没有y面对非监督学习问题,集群是常用的方法集K-means算法集群种类为K,训练样本为x(i)...i=(1,m){x^{(i)}...i=(1,m)}x(i)...i=(1...原创 2020-03-19 10:51:00 · 505 阅读 · 0 评论 -
Andrew Ng带我漫步机器学习 - 第七周 支持向量机SVM
支持向量机优化目标模型转换代价函数假设方程模型原理数学边界最大间隔分类器数学原理 - 略,不略也看视频好些优化目标模型转换在y=0/1时,分别将逻辑回归模型曲线转换为近似的折线y=0时, 转折点在z=θTxz=\theta^Txz=θTx = -1处,z>−1z > -1z>−1时,cost > 0y=1时, 转折点在z=θTxz=\theta^Txz=θTx...原创 2020-03-17 11:44:31 · 490 阅读 · 0 评论 -
Andrew Ng带我漫步机器学习 - 第六周 机器学习应用指南
机器学习应用指南算法评估训练集与测试集多项式与交叉验证集方差与偏置多项式正则化学习曲线算法评估面对途中问题,随机尝试列举的解决方案并不合适,我们需要一套高效的评估方案来寻找到关键问题所在,对症下药,解决问题训练集与测试集评估机器学习算法的首要且必要步骤步骤就是将数据分割为训练集(training set)和测试集(test set)7:3(不一定)分割输入集为训练集和测试集对训练集...原创 2020-03-16 11:29:21 · 137 阅读 · 0 评论 -
Andrew Ng带我漫步机器学习 - 第五周 神经网络算法
神经网络算法代价函数参数分析反向传播梯度下降反向传播实现原理算法优化展开参数梯度检验随机初始化算法应用综析选择合适的神经网络结构训练神经网络算法神经网络实战-无人驾驶汽车-略代价函数相比逻辑回归代价函数,大概八成新J(Θ)=−1m∑i=1m∑k=1K[yk(i)log((hΘ(x(i)))k)+(1−yk(i))log(1−(hΘ(x(i)))k)]+λ2m∑l=1L−1∑i=1sl∑j...原创 2020-03-15 11:58:29 · 142 阅读 · 0 评论 -
Andrew Ng带我漫步机器学习 - 第四周 非线性假设-神经网络模型
非线性假设-神经网络为什么还需要神经网络?神经网络模型模型展示公式参数矩阵实现向前传播自学习特征多类分类一对多模型为什么还需要神经网络?线性回归和逻辑回归确实可以解决大量的监督学习问题,但是在非线性多项式假设方程中,随着样本集特征数的增多,参数会成指数级的增长,给算法带来几乎不显示的巨大计算压力,此时,我们需要引入神经网络最典型的神经网络问题就是计算机视觉,每个像素都是一个特征量,组成多项式...原创 2020-03-14 11:59:58 · 397 阅读 · 0 评论 -
Andrew Ng带我漫步机器学习 - 第三周 分类问题逻辑回归与过拟合及其正则化
分类逻辑回归与过拟合正则化分类问题假设方程决策边界逻辑回归模型代价函数梯度下降高级优化参数优化方法算法实践多类分类一对多模型过拟合什么是过拟合正则化原理正则化线性回归梯度下降正态方程正则化逻辑回归正则化代价函数正则化梯度下降分类问题分类问题满足二元判断,根据计算机二进制原理,只有0,1两种情况,比如有/无,对/错,是/否等分类问题需要设定阈值,高于/低于阈值对应二元分类问题的两种情况由于...原创 2020-03-13 20:14:55 · 154 阅读 · 0 评论 -
Andrew Ng带我漫步机器学习 - 第二周 线性回归
线性回归多元线性回归基础特征基础参数分析假设方程矩阵计算梯度下降多元线性回归优化特征缩放均值归一化学习因子α\alphaα多项式回归正态方程公式正态方程与梯度下降比较不可逆性Octave & Matlab教程 - 略多元线性回归基础拥有多个变量(>=3)的线性回归称为多元线性回归特征基础参数分析x(i) = 第i个输入训练样本xj(i)x_j^{(i)}xj(i) =...原创 2020-03-13 14:02:14 · 168 阅读 · 0 评论 -
Andrew Ng带我漫步机器学习 - 第一周 什么是机器学习?
什么是机器学习机器学习概念监督学习非监督学习模型及代价函数参数介绍模型展示代价函数一元函数寻找全局最小值二元函数寻找全局最小值梯度下降算法写在前面 - 课程最前面整个课程中我们将学习包括监督学习和非监督学习在内的诸多算法,以及如何使用它们机器学习概念关于机器学习还没有一个统一绝对的定义, 但我们仍然可以获得较为清晰的理解:“Field of study that gives comput...原创 2020-03-12 21:46:41 · 104 阅读 · 0 评论