个人学习
文章平均质量分 89
CC12222032
这个作者很懒,什么都没留下…
展开
-
吴恩达机器学习总结:第十课 聚类分析(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.无监督学习——介绍(1)聚类(从无标签数据中学习)(2)无监督学习(3)适用聚类的 a.市场划分 b.社交网络分析 c.计算机集群 d.天文数据分析2.K-均值算法(1)将无标签数据分成两组(2)随机选择两个点作为聚合中心 a.有多少个聚合类就选择多少个聚合中心(...原创 2018-04-07 17:10:55 · 517 阅读 · 0 评论 -
吴恩达机器学习总结:第八课 机器学习系统设计(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.机器学习系统设计 (1)接触如何组合一个系统 (2)这部分需要很少的数学方法,但是数学方法可以帮助你理解算法 2.优先处理需要处理的问题--垃圾邮件分类 (1)选择你自己的特征 a.选择100个词 b.编入长向量 c.定义特征向...原创 2018-04-05 18:50:46 · 252 阅读 · 0 评论 -
吴恩达机器学习总结:第十四 大型机器学习(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.大数据集的学习(1)长处及缺陷 a.获得高性能的最佳方法之一是采用低偏置算法并对大量数据进行训练 b.我们看到只要提供大量数据的算法,它们的表现都非常相似 c.但是,使用大型数据集进行学习会带来其自身的计算问题(2)这种大规模总结的计算成本,我们将考虑更有效的方法 a....原创 2018-04-11 10:14:28 · 409 阅读 · 0 评论 -
吴恩达机器学习总结:第一课 单变量线性回归(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。 英文非官方笔记 1.总结 (1)代价函数 (2)梯度下降 重要参数:学习率α(太小导致收敛慢,太大导致不能收敛)和迭代次数 2. 课后作业: (1)导入数据 data = load('ex1data1.txt');X = data(:, 1); y = data(:, 2); ...原创 2018-03-21 09:58:52 · 823 阅读 · 1 评论 -
吴恩达机器学习总结:第二课 多变量线性回归(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记1.总结 (1)符号设置: n 特征的数量 m 样本数量 Xi 样本i的向量型输入 Xji 样本i的第j个特征 hθ(x) = θ0x0 + θ1x1 + θ2x2 + θ3x3 + θ4x4 hθ(x) =θT...原创 2018-03-22 15:12:46 · 784 阅读 · 0 评论 -
吴恩达机器学习总结:第三课 逻辑回归(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.分类 (1)y的值是离散值,比如说0(负分类),1(正分类) (2)从二元分类开始 (3)如何开始一个分类算法 a.利用线性回归,选个一个阈值2.假设表示 (1)逻辑函数(sigmoid函数) a.hθ(x) = (θT x) b...原创 2018-03-29 10:24:46 · 979 阅读 · 0 评论 -
吴恩达机器学习总结:第四课 正则化(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.过拟合问题 (1)线性回归的过拟合 a .过拟合导致高方差,欠拟合导致高偏差 b.泛化能力差 (2)逻辑回归的过拟合 (3)解决过拟合方法 a.减少特征数量(会造成信息缺失) b.正则化2.正则化的代价函数优化 (1)...原创 2018-03-30 09:53:36 · 413 阅读 · 0 评论 -
吴恩达机器学习总结:第五课 神经网络-表示(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.模型展示-1 (1)神经元 (2)人工神经网络 a.在人工神经网络中,神经元是一个逻辑单元(通过输入线输入、逻辑单元进行计算、发送输出线条输出) b.该逻辑计算就像我们之前的逻辑回归假设计算 c.神经网络结构(...原创 2018-03-31 20:50:55 · 508 阅读 · 0 评论 -
吴恩达机器学习总结:第六课 神经网络-学习(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.神经网络代价函数2.后向算法(被用来最小化代价函数) (1)误差 a. 第四层输出误差表示为δj4 = aj4 - yj δ4 = a4 - y b.因为g'(z3) = a3 . * (1 - a3),所以δ3 = (Ɵ3)T δ4 . ...原创 2018-04-02 09:31:45 · 417 阅读 · 0 评论 -
吴恩达机器学习总结:第七课 运用机器学习的建议(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.决定接下来该怎么尝试(1)调试学习算法(当实施正则化线性回归之后,预测中有比较大错误) a.获得更多训练数据(前提是要保证更多的训练集有用) b.使用更小的特征集(仔细选择小子集,或者使用PCA降维) c.增加额外的特征(有时候并不有用,你需要关注数据本身,需要消耗很多时间)...原创 2018-04-03 17:25:54 · 319 阅读 · 0 评论 -
吴恩达机器学习总结:第十三 推荐系统(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.推荐系统-介绍(1)ML系统的重要应用 a.许多科技公司发现推荐系统很关键(亚马逊,Ebay) b.推荐系统性能提高能带来更多收入(2)推荐系统不是一种技术,而是一种想法(3)例子—预测电影评分2.基于内容的推荐(1)问题描述(2)定义 a.电影Love at Last可表示...原创 2018-04-10 09:53:12 · 885 阅读 · 0 评论 -
吴恩达机器学习总结:第十二 异常检测(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.异常检测-问题动机(1)问题检测是什么 a.我们有一些包括正常值的数据 b.我们如何确保他们是正常的取决于我们 c.事实上,如果有一些实际上并不正常,那么也可以使用该数据集作为参考点,我们可以看到其他示例是否异常(2)我们如何做到这一点 a.首先,使用我们的训练数据集建...原创 2018-04-09 10:19:45 · 513 阅读 · 0 评论 -
吴恩达机器学习总结:第十一 降维(PCA)(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.动机I:数据压缩(1)压缩 a.加速算法 b.减小数据空间 c.2维降为1维例子 d.3维降为2维例子 e.在实际中,我们正常会将1000维将为100维2.动机II:可视化(1)很难可视化高维数据 a.将为将会以易处理的方式来显示信息,以此提供给人进行...原创 2018-04-08 15:02:21 · 3797 阅读 · 0 评论 -
吴恩达机器学习总结:第九课 支持向量机(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.支持向量机——优化对象(1)另一种替代的对于逻辑回归的视角 a.逻辑回归假设,和sigmoid函数图,以及代价函数 b.将(hθ(x))代入代价函数,得到另外一种形式代价函数 y=1和y=0时,代价函数曲线 (2)从逻辑回归代价函数中得到SVM的代价函...原创 2018-04-06 16:09:57 · 780 阅读 · 1 评论