机器学习
文章平均质量分 94
ML0209
这个作者很懒,什么都没留下…
展开
-
吴恩达机器学习笔记---机器学习系统的设计
前言1.类偏斜的误差度量(Error Metrics for Skewed Classes)2.查准率和查全率之间的权衡(Trading off Precision and Recall)机器学习系统的设计(Machine Learning System Design)(一)首先要做什么(Prioritizing What to Work on) 我们将开始学习在设计机器学习系统的时候可能遇到的问题以及相应的建议,我们以一个垃圾邮件分类器作为例子展开。假设我要设计一个能够区分垃圾邮件的系统,我原创 2020-09-14 19:53:43 · 332 阅读 · 0 评论 -
吴恩达机器学习笔记---应用机器学习的建议
前言 1.决定下一步要做什么(Deciding What to Try Next) 2.评估假设(Evaluating a Hypothesis) 3.模型选择和交叉验证集(Model Selection and Train_Validation) 4.诊断偏差和方差(Diagnosing Bias vs. Variance) 5.正则化和偏差/方差(Regularization and Bias_Variance) 6.学习曲线(Learning Curves) 7.决定下一步做什么(Dec原创 2020-08-15 18:10:24 · 230 阅读 · 0 评论 -
吴恩达机器学习笔记---神经网络实现XNOR功能
前言 我们通过神经网络模型实现XNOR(异或非)运算。当2个输入端中有且只有一个0时,输出为0,也就是当输入相同时,输出为1。神经网络实现XNOR(一)实现x1 AND x2 AND运算是当且仅当两者都为1时结果为1。我们使用如下的神经网络模型实现: 这时候,我们的输出函数hθ(x)h_\theta(x)hθ(x)即为:hΘ(x)=g(−30+20x1+20x2)h_\Theta(x)=g\left( -30+20x_1+20x_2 \right)hΘ(x)=g(−30+20x1+2原创 2020-07-27 17:21:48 · 2280 阅读 · 1 评论 -
吴恩达机器学习笔记---神经网络前向传播
前言 1.非线性假设(Non-linear Hypotheses) 2.模型表示(Model Representation) 3.向量化(Vectorization)神经网络表述(一)非线性假设(Non-linear Hypotheses) 之前我们学习了线性回归和逻辑回归算法,理论上它们可以解决绝大部分的问题了,但是实际上,当我们的特征逐渐变多的时候,用线性回归和逻辑回归来解决问题通常会导致计算的负荷非常大。例如,当我们用逻辑回归来解决问题的时候,假设有100个特征,如果仅构造两两特征的组原创 2020-07-27 16:41:51 · 204 阅读 · 0 评论 -
吴恩达机器学习笔记---正则化
前言 使用正则化技术缓解过拟合现象,使模型更具泛化性 1.过拟合问题(Overfit) 2.代价函数(Cost Function) 3.线性回归的正则化(Regularized Linear Regression) 4.逻辑回归的正则化(Regularized Logistic Regression)正则化(Regularization)(一)过拟合问题(Overfit) 先看两张图: 两张图分别代表回归问题和分类问题。相同的是,在两幅图的第一个图中,我们发现数据拟合的并不好,直原创 2020-07-21 14:27:22 · 197 阅读 · 0 评论 -
吴恩达机器学习笔记---逻辑回归模型参数优化
前言 利用梯度下降对逻辑回归模型的代价函数求取最小解,实现模型参数的优化 1.代价函数(Cost Function) 2.梯度下降(Gradient Descent) 3.高级优化(Advanced Optimization) 4.多类别分类(Multiclass Classification)逻辑回归模型参数优化(一)代价函数(Cost Function) 在线性回归模型中,我们选取所有样本误差的平方和的均值作为代价函数,对于逻辑回归模型,理论上也可以使用它作为代价函数。但是,将hθ(原创 2020-07-21 09:46:10 · 2438 阅读 · 0 评论 -
吴恩达机器学习笔记---逻辑回归模型
前言 之前学习的单变量和多变量线性回归模型都是监督学习中的回归问题,现在开始学习监督学习中的分类问题,即输出都是离散值,我们主要学习其中的逻辑回归问题,虽然有“回归”两个字,但却是分类问题。 1.分类问题(Classification) 2.假说表示(Hypoththesis Representation) 3.判定边界(Decision Boundary)逻辑回归模型(一)分类问题(Classification) 分类问题应用很广,比如说判断邮件是否为垃圾邮件或者不是,还有判断一个肿瘤是原创 2020-07-19 09:54:16 · 210 阅读 · 0 评论 -
吴恩达机器学习笔记---向量化
前言 向量化可以通过使用系统内置的线性代数库或者数值线性代数库,大大减少代码的数量和运行的时间向量化(Vectorization) 在之前讲多变量线性回归的时候,假设函数hhh如下: 要想表示出假设函数,我们可以通过未向量化的代码通过累加θj\theta_{j}θjxjx_{j}xj获得,也可以直接通过向量化,把θ\thetaθ和原创 2020-07-14 21:47:05 · 381 阅读 · 0 评论 -
吴恩达机器学习笔记---Octave教程(Python实现)
前言 本节主要将吴恩达机器学习中的Octave教程操作用Python实现,主要内容包括: 1.基本操作(Basic Operations) 2.移动数据(Moving Data Around) 3.计算数据(Computing on Data) 4.绘图数据(Plotting Data) 5.控制语句:for,while,if语句基本操作(Basic Operations)(一)算术运算和逻辑运算# 算术运算print("5 + 6 = %d" % (5+6))print("3 -原创 2020-07-14 17:21:07 · 1352 阅读 · 3 评论 -
吴恩达机器学习笔记---正规方程及推导
前言 1.正规方程(Normal Equation) 2.正规方程不可逆性及其推导过程正规方程(Normal Equation) 到目前为止,对模型参数θ0\theta_{0}θ0,θ1\theta_{1}θ1,θ2\theta_{2}θ2…θn\theta_{n}θn的求解都是使用梯度下降的方式,这种迭代算法需要经过很多次迭代才能收敛到全局最小值。而我们知道求解函数取最小值时候的解可以利用求导,并令倒数为0原创 2020-07-13 09:52:00 · 720 阅读 · 1 评论 -
吴恩达机器学习笔记---多变量线性回归
前言多变量线性回归在原有的单变量线性回归基础上,增加变量个数,特征变为(x1,x2,...,xn)\left( {x_{1}},{x_{2}},...,{x_{n}} \right)(x1,x2,...,xn)1.多维特征(Multiple Features)2.多变量梯度下降(Gradient Descent for Multiple Variables)多变量线性回归(Multivariate Linear Regression)(一)多维特征(Multiple Features)&n原创 2020-07-12 20:48:04 · 262 阅读 · 0 评论 -
吴恩达机器学习笔记---线性代数复习
前言 1.矩阵和向量(Matrices and Vectors ) 2.矩阵的加、减、乘、逆和转置线性代数回顾(Linear Algebra Review) 这一节主要是回顾矩阵和向量的有关知识,比较简单,先罗列一下知识点,再通过代码回顾一下。矩阵的维数用行数×列数(m×n)来表示一般用大写字母A,B,C等表示矩阵,用下标指引矩阵中的元素,例如Aij表示是第i行第j列的元素(一般从1开始计数,有时从0开始计数)原创 2020-07-08 10:23:17 · 168 阅读 · 0 评论 -
吴恩达机器学习笔记---单变量线性回归
前言线性回归算法是我们学习的第一个监督学习算法,我们将从最简单的单变量线性回归开始学习。主要内容:一、代价函数(Cost Function)二、梯度下降(Gradience Descent)单变量线性回归(Linear Regression with One Variable)(一)模型表示(Model Representation) 首先,同样是先从房价预测的例子开始,我们将有已有的数据表示在坐标轴上,横坐标表原创 2020-07-07 21:39:29 · 191 阅读 · 0 评论 -
吴恩达机器学习笔记---监督学习和无监督学习
吴恩达机器学习笔记Introduction前言引言(Introduction)(一)欢迎(Welcome)(二)什么是机器学习(What is Machine Learning)(三)监督学习(Supervised Learning)(四)无监督学习(Unsupervised Learning)前言 一、监督学习(Supervised Learning) 二、无监督学习(Unsupervised Learning)引言(Introduction)(一)欢迎(Welcome) &n原创 2020-07-07 17:27:15 · 362 阅读 · 0 评论 -
吴恩达机器学习笔记---神经网络反向传播
前言 1.代价函数(Cost Function) 2.反向传播算法(Backpropagation Algorithm) 3.直观理解(Backpropagation Intuition)神经网络学习(一)代价函数(Cost Function) 之前我们学习了神经网络模型的前向传播过程,就是输入特征求得输出结果的过程。反向传播算法目的就是优化模型参数,也就是每个神经元上的权值。要想优化参数,第一步就是求出代价函数的表达式,通过最小化代价函数来求得最优参数。在给出神经网络模型的代价函数之前我们原创 2020-07-29 10:32:38 · 379 阅读 · 0 评论