机器学习
linuxcumt
这个作者很懒,什么都没留下…
展开
-
Stanford机器学习---第一讲 Introduction
==============Welcome================1.微软和谷歌实现了机器学习算法来排行网页2.FACEBOOK的图片分类程序也是用机器学习算法来做的3.垃圾邮件过滤器4.有时很难用具体的算法去解决上述问题,怎么办?---------让机器自己学着去解决。如直升机无人驾驶,手原创 2013-02-04 16:14:11 · 632 阅读 · 0 评论 -
Stanford机器学习---第九讲. 机器学习系统设计--Machine learning System Design
1.决定基本策略在本章中,我们用一个实际例子怎样进行垃圾邮件Spam的分类>来描述机器学习系统设计方法。首先我们来看两封邮件,左边是一封垃圾邮件Spam,右边是一封非垃圾邮件Non-Spam:观察其样式可以发现,垃圾邮件有很多features,那么我们想要建立一个Spam分类器,就要进行有监督学习,将Spam的features提取转载 2013-02-14 10:05:16 · 605 阅读 · 0 评论 -
Stanford机器学习---第八讲 怎样选择机器学习方法——Advice for applying machine learning
=============Deciding what to try next===========1.出现拟合失败,如何解决?2.拟合失败后的方法选择3.小解释===========Evaluating a Hypothesis=============1.分配比率2.两种回归的错误判别方法====Model Sele原创 2013-02-11 11:24:01 · 533 阅读 · 0 评论 -
和机器学习和计算机视觉相关的数学(from LinDahua)
From:http://dahua.spaces.live.com/default.aspx1.线性代数 (Linear Algebra):我想国内的大学生都会学过这门课程,但是,未必每一位老师都能贯彻它的精要。这门学科对于Learning是必备的基础,对它的透彻掌握是必不可少的。我在科大一年级的时候就学习了这门课,后来到了香港后,又重新把线性代数读了一遍,所读的是Introd转载 2013-02-08 22:29:38 · 608 阅读 · 0 评论 -
Stanford机器学习---第五讲. 过拟合问题的解决 Regularization
=============The Problem of Overfitting===============1.bias大,underfittign variance大,overfitting2.logistic回归中的过拟合,注意其函数是logistic,而参数是非线性。因为本身图是线性不可分(除最左)3.overfitting是由于特征选取太原创 2013-02-07 10:36:25 · 602 阅读 · 0 评论 -
Stanford机器学习---第三讲. 多变量线性回归 Linear Regression with Multiple Variables
===============Multiple Features===============1.一些符号2. Linear Regression with Multiple Variables的简洁表示===============Gradient Descent for Multiple Variables===============1.Gradient Descen原创 2013-02-05 20:59:21 · 690 阅读 · 0 评论 -
Stanford机器学习---第七讲. 神经网络的学习 Neural Networks learning
==================Cost Function===============1.一些基本符号2.COST函数================Backpropagation Algorithm=============1.要计算的东西2.向前传递向量图,但为了计算上图的偏导,要用到后向传递算法3.后向传递算法原创 2013-02-09 09:50:34 · 499 阅读 · 0 评论 -
机器学习(Machine Learning)大家与资源
=======================国外====================Machine Learning 大家(1):M. I. Jordan (http://www.cs.berkeley.edu/~jordan/) 在我的眼里,M Jordan无疑是武林中的泰山北斗。他师出MIT,现在在berkeley坐镇一方,在附近的两所名校(加stanford)中转载 2013-02-07 18:11:27 · 4543 阅读 · 0 评论 -
Stanford机器学习---第六讲. 神经网络的表示 Neural Networks representation
==============Nonlinear hypothesis==============1.当特征多的时候(100),为了非线性的分割,要引入2次项,甚至3此项,造成特征膨胀。2.当特征“爆炸”时,回归计算复杂度太大,如汽车分类小例:=================Neurons and the Brain=============原创 2013-02-07 17:02:08 · 621 阅读 · 0 评论 -
Stanford机器学习---第四讲. Logistic回归 Logistic Regression
==================Classification=======================1.假设随Tumor Size变化,预测病人的肿瘤是恶性(malignant)还是良性(benign)的情况。给出8个数据如下: 2.假设进行linear regression得到的hypothesis线性方程如上图中粉线所示,则可以确定一个thres原创 2013-02-06 17:30:46 · 1149 阅读 · 0 评论 -
Stanford机器学习---第二讲. Linear Regression with one variable
============Model Representation==============1.符号表示2.模式表示=============Cost Function===============1.cost fuction,平方差话费函数是最基本的。2.当theta1=1,theta原创 2013-02-04 17:55:42 · 669 阅读 · 0 评论 -
Stanford机器学习---第十一讲. 聚类
============K-Means聚类算法=============1.KMeans的算法流程:随机选点,分类;再移动点,再分类。。。。2.算法解释3.聚类,再改变中心点4.非可分类的处理==============Optimization Objective========================1.目标函数原创 2013-02-16 10:28:50 · 600 阅读 · 1 评论