Margo_Zhang的博客

为者常成,行者常至

吴恩达机器学习14--无监督学习

9月份我密集学习了一段时间机器学习课程,之后由于工作加强,我个人调理身体状态等原因,我停止了一段时间。今天起,将继续学习这个课程,并且继续在网站上记录我的心得。祝福我们所有人都身体健康,学习进步!  ...

2018-11-19 14:58:03

阅读数 22

评论数 0

吴恩达机器学习13--支持向量机(Support Vector Machines)

第13章 支持向量机(Support Vector Machines) 一,优化目标(Optimization objective) SVM也是广泛的应用于工业界和学术界的监督学习算法。 类似于logistic的代价函数,SVM的代价函数如图是斜直线加上平直线。所以是类似的,在之后的...

2018-09-20 20:34:28

阅读数 59

评论数 0

吴恩达机器学习笔记12——机器学习系统设计

第12章 机器学习系统设计 一,确定执行的优先级 Prioritizing what to work on : Spam classification example 构造分类器 在实际中的做法是,在训练集中挑选出最常常出现的10000~50000个字作为特征向量。 如果我能把吴恩...

2018-09-14 15:25:00

阅读数 152

评论数 0

吴恩达机器学习课程作业tips(更新中)

ex4, 一开始做的时候,卡在了代价函数这里,建议大家用for循环来练习这道题目,真正理解神经网络算法和one-vs-all算法的不同。 这个式子的重点在于计算 one-vs-all,十个分类器,分别做十次logistic回归。每一个的结果都要和y求误差。也就是10次计算。再有5000个...

2018-09-08 21:04:32

阅读数 125

评论数 0

吴恩达机器学习笔记11——启用机器学习的建议

第11章 启用机器学习的建议 1,决定下一步做什么 模型结果不如意,该怎么办,有很多方法,如上图,但是该选哪个呢?本章教你如何选择。 机器学习诊断 2,评估假设 对于有某种数据的数据,最好是随机选择30%作为测试集。 可以发现,test set error的计算...

2018-09-08 17:10:31

阅读数 40

评论数 0

吴恩达机器学习笔记10——神经网络参数的反向传播

第10章 神经网络参数的反向传播 为神经网络拟合参数的算法 1,代价函数Cost Function   2,反向传播算法 让代价函数最小化的方法。 推导一下 是l层第j个单元的激活值,是求他 的误差 第一层不存在误差,因为是输入层。 以下为导数推导。 ...

2018-09-05 17:23:06

阅读数 87

评论数 0

吴恩达机器学习笔记9——神经网络学习

第9章 神经网络学习 1,非线性假设 对于非线性假设,特征数目特别多时,采用logisitic进行分类,容易过拟合,而且计算成本过高。所以要采用神经网络。 2,神经元和大脑 3,模型展示I bias unit 偏置单元 weights parameters二者同义词 ...

2018-09-05 16:04:54

阅读数 56

评论数 0

吴恩达机器学习笔记8——正则化Regularization

第8章 正则化Regularization 1,过拟合(the problem of overfitting) 欠拟合,过拟合 过多的特征变量,很少的训练样本,会引起正则化。 有两种方法处理过拟合的问题,一个是减少特征的数量,人为选择去除部分特征或者模型选择算法,用算法来选...

2018-09-04 22:07:05

阅读数 52

评论数 0

吴恩达机器学习笔记7——Logistic回归

第7章 Logistic回归(讨论离散数据集的学习算法) logistic回归又称logistic回归分析,主要在流行病学中应用较多,比较常用的情形是探索某疾病的危险因素,根据危险因素预测某疾病发生的概率,等等。(from baidu baike) 1,分类 分类问题,主要是将结果分成正...

2018-09-04 17:01:47

阅读数 121

评论数 0

吴恩达机器学习笔记6——Octave/Matlaba教程

第6章  Octave/Matlaba教程 主要讲了如何使用Octave,吴恩达大大真的是谦逊大师,讲软件使用都十分认真。 其中讲到了向量化操作,可以少用for循环,提高计算速率。 ...

2018-09-03 17:07:14

阅读数 73

评论数 0

吴恩达机器学习笔记5——多变量线性回归

第5章 多变量线性回归 1,多功能 2,多元梯度下降法(Gradient Descent for Multiple variabls) Hypothesis假设: Parameters参数:           n+1维向量 Cost function 代价函数: Gra...

2018-09-03 16:42:16

阅读数 83

评论数 0

吴恩达机器学习笔记4——线性回归回顾

第3章 线性回归回顾 (这一章主要回顾了矩阵的基础知识,对矩阵很熟的就不用看了) 1,矩阵和向量 大写字母 矩阵 小写字母 向量 一般1-indexed,需要转换时会说。 2,加法和标量乘法 3,矩阵向量乘法 向量化操作,简化问题模型,prediction=DataMatr...

2018-09-03 11:31:31

阅读数 77

评论数 0

吴恩达机器学习笔记3——单变量线性回归

第2章 单变量线性回归linear regression with one variable 1,模型描述 model representation Supervised learning (given the 'right answer' for each example in the da...

2018-09-02 16:16:42

阅读数 66

评论数 0

吴恩达机器学习笔记2——初识机器学习

第1章 初识机器学习 1,welcome,举了一些实例 2,introduce what is machine learning. 3,监督学习(supervised learning): 通过算法对一些离散的数据进行监督,与无监督算法的区别是,监督算法是在确定知道数据集每一个是否正确的情...

2018-09-02 14:02:52

阅读数 79

评论数 0

吴恩达机器学习笔记1——学习资源整合

资源地址: https://study.163.com/course/courseLearn.htm?courseId=1004570029#/learn/video?lessonId=1049049771&courseId=1004570029 感谢有吴恩达这样乐于分...

2018-09-02 13:18:53

阅读数 100

评论数 0

java 数组分配空间的多种方式对比

数组声明格式 public class mon1 { public static void main(String[] args){ int num1[][]=new int[3][4]; int num2[][]={{30,32,3...

2017-05-23 21:58:18

阅读数 978

评论数 0

C语言中结构体的位域(bit-fields)

有些信息在存储时,并不需要占用一个完整的字节, 而只需占几个或一个二进制位。例如在存放一个开关量时,只有0和1 两种状态, 用一位二进位即可。为了节省存储空间,并使处理简便,C语言又提供了一种数据结构,称为“位域”或“位段”。所谓“位域”是把一个字节中的二进位划分为几个不同的区域,并说明每个区域的...

2017-02-20 17:25:32

阅读数 284

评论数 0

C语言中结构体的位域(bit-fields)

有些信息在存储时,并不需要占用一个完整的字节, 而只需占几个或一个二进制位。例如在存放一个开关量时,只有0和1 两种状态, 用一位二进位即可。为了节省存储空间,并使处理简便,C语言又提供了一种数据结构,称为“位域”或“位段”。所谓“位域”是把一个字节中的二进位划分为几个不同的区域,并说明每个区域的...

2017-02-20 17:22:35

阅读数 198

评论数 0

关于error:LNK2005 已经在*.obj中定义

今天遇到了一个问题,在编译的时候会出现错误LNK2005,提示是***已经在main.obj中定义。这是由于我在头文件中定义了全局变量,当我在main文件中引用头文件时,会重复定义全局变量,因此要在head文件中加入#pragma once。铛铛~问题解决。

2017-01-11 16:49:28

阅读数 260

评论数 0

提示
确定要删除当前文章?
取消 删除
关闭
关闭