机器学习
哈特谢普苏特
海上生明月
展开
-
机器学习ing
第四题是一个多选题 做错了 并且选项是会发生变化的Some of the problems below are best addressed using a supervised learning algorithm, and the others with an unsupervised learning algorithm. Which of the following would yo转载 2017-07-26 21:22:44 · 402 阅读 · 0 评论 -
机器学习笔记
``````````````````机器学习笔记TPE 概念学习 归纳学习假设LMS 最小均方法布尔函数 more-general~han_or.-equal~to relationFIND-S 算法 使用more-general_than 偏序来搜索与训练样例一致的假设 从H中最特殊假设开始,然后再该假设覆盖正例失败时将其一般...原创 2018-09-08 17:08:51 · 188 阅读 · 0 评论 -
机器学习实战第二章记录
第二章讲的是K-邻近算法from numpy import*import operatordef createDataSet(): group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) labels = ['A','A','B','B'] return group,labelsgroup,labels = createDataSet...原创 2018-06-15 20:01:16 · 931 阅读 · 0 评论 -
机器学习 第十周 总结 知识点
第十周 主要讲大规模机器学习和图像文字识别第十七章如果我们的模型是左图,那么增加训练的规模对模型有帮助,但是右图则不会有明显的变化。 如果我们一定需要一个大规模的训练集,我们可以尝试使用随机梯度下降法来代替批量梯度下降法。在随机梯度下降法中,我们定义代价函数为一个单一训练实例的代价:随机梯度下降算法为:首先对训练集随机“洗牌”,然后:原创 2017-10-14 22:31:57 · 378 阅读 · 0 评论 -
机器学习 第九周 总结 知识点
主要讲异常检测 和 推荐系统 第十五章给定数据集 x(1),x(2),..,x(m),我们假使数据集是正常的,我们希望知道新的数据 xtest 是不是异常的,即这个测试数据不属于该组数据的几率如何。我们所构建的模型应该能根据该测试数据的位置告诉我们其属于一组数据的可能性p(x)。欺诈检测: X(i) = 用户的第 i 个活动特征 模型原创 2017-10-14 20:40:09 · 328 阅读 · 0 评论 -
机器学习 第八周 总结 知识点
主要讲无监督算法,主要是聚类(K均值算法)和降维(PCA主成分分析法) 为线性代数和概率统计打call!! 第十三章 主要讲聚类(K均值算法)如何选择K值 肘部法则在这里我们有一系列点,却没有标签。因此,我们的训练集可以写成只有 x(1),x(2)…..一直到 x(m)。我们没有任何标签 y。因此,图上画的这些点没有标签信息。也就是说,在非监督学习中原创 2017-10-13 22:27:35 · 333 阅读 · 0 评论 -
机器学习 第七周 总结 知识点
主要讲向量机SVM以前学的逻辑回归支持向量机和逻辑回归之间有相似之处,但是实质是不相同的将1/m去掉,因为是常数并不影响,成为A+λ×B,乘1/λ=C 就可以得到以上结果支持向量机的边界事实上,支持向量机现在要比这个大间距分类器所体现得更成熟,尤其是当你使用大间距分类器的时候,你的学习算法会受异常点 (outlier) 的影响原创 2017-10-13 18:20:23 · 243 阅读 · 0 评论 -
机器学习 第六周 总结 知识点
主要讲怎样改进机器学习的性能(从哪些方面入手)遇到哪种情况用何种方法比较有效,查准率(Precision)和查全率(概率统计大法) 让模型变得更好的方法1. 获得更多的训练 2. 尝试减少特征的数量 3. 尝试获得更多的特征 4. 尝试增加多项式特征 5. 尝试减少归一化程度 λ 6. 尝试增加归一化程度λ评估假设对于线性回归原创 2017-10-12 19:42:20 · 272 阅读 · 0 评论 -
机器学习 第二周 总结 知识点
第二周重点是梯度下降算法的实现和正规方程,附带的有特征,多项式回归,octave的使用也十分重要n 代表特征的数量 x(i)代表第 i 个训练实例,是特征矩阵中的第 i 行,是一个向量(vector)。比方说,上图的代表特征矩阵中第 i 行的第 j 个特征,也就是第 i 个训练实例的第 j 个特征。 如上图的支持多变量的假设 h 表原创 2017-10-05 20:12:07 · 296 阅读 · 0 评论 -
机器学习 第一周 总结 知识点
Machine learning algorithms:-Supervisedlearning-Unsupervised learningOthers: Reinforcement learning, recommendersystems. Also talk about: Practical advice for applying learning algorithms. Mac原创 2017-10-04 22:37:47 · 724 阅读 · 0 评论 -
机器学习 第五周 总结 知识点
主要讲反向传播算法及其实现过程,其实最好的方法就是多看几次视频,视频内容本身很棒,理解透彻就好。 神经网络的分类以及一些定义如下图神经网络的代价函数如下图对于每一行特征,我们都会给出K 个预测,基本上我们可以利用循环,对每一行特征都预测 K 个不同结果,然后在利用循环在 K 个预测中选择可能性最高的一个,将其与 y 中的实际数据进行比较。归一化的原创 2017-10-09 21:23:06 · 242 阅读 · 0 评论 -
机器学习 第四周 总结 知识点
主要介绍神经网络和向前传播算法(重点要仔细看懂PPT,所有的知识点PPT都讲的十分清楚)神经网络模型建立在很多神经元之上,每一个神经元又是一个个学习模型。这些神经元(也叫激活单元,activation unit)采纳一些特征作为输出,并且根据本身的模型提供一个输出。下图是一个以逻辑回归模型作为自身学习模型的神经元示例,在神经网络中,参数又可被成为权重(weight)。原创 2017-10-09 18:33:11 · 324 阅读 · 0 评论 -
机器学习 第三周 总结 知识点
本周主要讲逻辑回归和正则化问题第六章 逻辑回归在分类问题中,你要预测的变量 y 是离散的值,我们将学习一种叫做逻辑回归 (Logistic Regression) 的算法,这是目前最流行使用最广泛的一种学习算法。 逻辑回归算法实际上是一种分类算法,它适用于标签 y 取值离散的情况。在分类问题中,我们尝试预测的是结果是否属于某一个类(例如正确或错误)。分类问题的例子有:判断一封原创 2017-10-07 19:55:50 · 257 阅读 · 0 评论 -
meachine learning 第六周 2
Suppose you are working on a spam classifier, where spamemails are positive examples (y=1) and non-spam emails arenegative examples (y=0). You have a training set of emailsin which 99% of th原创 2017-09-03 11:11:31 · 351 阅读 · 0 评论 -
Coursera Machine Learning 第十周 quiz Large Scale Machine Learning
返回Large Scale Machine Learning5 个问题1point1。Suppose you are training a logistic regression classifier using stochastic gradient descent. You find that原创 2017-09-23 23:17:49 · 2005 阅读 · 0 评论 -
机器学习第三周程序
如上图,在costFunction函数中,上面的J的计算方法有问题(拟合程度不是很好)原因是忘记了最前面的求和符号,同时应该是每一个都"点乘"原创 2017-08-11 22:09:21 · 219 阅读 · 0 评论 -
Coursera Machine learning
机器学习原创 2017-08-11 18:43:38 · 334 阅读 · 0 评论 -
机器学习-李宏毅-01
Gradient Descent Demox_data = [338.,333.,207.,226.,25.,179.,60.,208.,606.]y_data = [640.,633.,619.,393.,428.,27.,66.,226.,1591.]import numpy as npimport matplotlibimport matplotlib.pyplot as ...原创 2018-11-27 16:26:56 · 255 阅读 · 0 评论