- 博客(19)
- 资源 (32)
- 收藏
- 关注
原创 斯坦福课程ML
1、线性回归、logistic回归和一般回归线性回归函数(如果)损失函数(loss function)或者错误函数(error function)梯度下降法梯度下降法最大的问题是解有可能是局部极小值,这与初始点的选取有关步骤首先对赋值,这个值可以是随机的,也可以让是一个全零的向量改变的值,使得沿梯度下降的的方向减少由于求得的是极小值,因此
2013-03-26 19:12:44 1105
原创 Mitchell机器学习-遗传算法
1. 遗传算法的特点遗传算法是基于自然选择和基因遗传学原理的一种群体寻优的搜索算法,特别适用于处理传统搜索方法难于解决的复杂和非线性问题。遗传算法是群体寻优,不是从一个点开始,而是从许多点开始搜索。因而可以防止搜索过程收敛于局部最优解,较有可能得到全局最优解。遗传算法通过适应函数来选择优秀种群,而不需其他推导和附属信息,因而对问题的依赖性较小,求解的鲁棒性较好。遗传算法对寻优的函数(适
2013-03-24 20:12:09 1406
原创 Mitchell机器学习-基于实例的学习
1. 简介消极学习方法不是根据样本建立一般化的目标函数并确定其参数,而是简单地把训练样例存储起来,直到需要分类新的实例时才分析其与所存储样例的关系,据此确定新实例的目标函数值。最近邻法与局部加权回归法根据邻近的样例对新实例分类径向基函数/核函数法介于局部加权回归和神经网络之间的方法基于案例的推理使用符号表示的基于知识的推理方法2.
2013-03-24 07:17:39 4076 1
原创 Mitchell机器学习-贝叶斯学习
1. 极大后验假设中包含了假设的先验概率,若没有先验信息,则极大后验假设等同于极大似然假设。比较极大似然假设:2. 作为搜索的概念学习在目标函数给出的可能的假设空间中搜索能最好拟合训练样例的假设所搜索的假设空间是有限的训练数据是无噪声的,学习到的假设应当与每个样例一致目标概念应当包含在中没有其他先验知识没有其他先验知识指没有任何理由认为某假设比其他假
2013-03-23 20:24:59 3004
原创 Mitchell机器学习-决策树学习中信息论的相关知识
1. 信道模型转移概率矩阵2. 信息熵信源自信息表示出现的不确定性。信息熵自信息的数学期望,即出现的平均不确定性,又叫先验熵。:对某个有(),信源只发出符号,不存在不确定性(令)相互接近,越大,反之则越小。
2013-03-21 21:17:06 1091
原创 Stanford ML - Lecture 11 - Large scale machine learning
1. Learning with large datasetsIt's not who has the best algorithm that wins. It's who has the most data2. Stochastic gradient descentbatch gradient descentrepeat
2013-03-21 19:12:05 767
原创 Stanford ML - Lecture 10 - Dimensionality Reduction
1. Motivation I: Data CompressionReduce data from 2D to 1D2. Motivation II: Data Visualization3. Principal Component Analysis problem formulationreduce from 2D to 1D: find a directio
2013-03-21 10:47:07 780
原创 Stanford ML - Lecture 9 - Clustering
1. Unsupervised learning introductionsupervised learning - training set: unpervised learning - training set: 2. K-means algorithmrandomly select K cluster centroidsrepeatfor every
2013-03-21 09:15:08 681
原创 Stanford ML - Lecture 8 - Support Vector Machines
1. Optimization Objectivelogistic regressionletsupport vector machine2. Large Margin Intuition3. The mathematics behind large margin classification (optional)
2013-03-17 22:50:52 815
原创 Stanford ML - Lecture 7 - Machine learning system design
1. Prioritizing what to work on: Spam classification examplecollect lots of datadeveloped sophisticated features based on email routing informationdeveloped sophisticated features for message bo
2013-03-17 22:01:22 1337
原创 Stanford ML - Lecture 6 - Advice for applying machine learning
1. Deciding what to try nextDebugging a learning algorithmSuppose you have implemented regularized linear regression to predict housing prices, when you test your hypothesis on a new set of
2013-03-17 20:24:29 1966
原创 Stanford ML - Lecture 5 - Neural Networks: Learning
1. Cost functionNeural Network (Classification)Binary classification1 output unitMulti-class classification (K classes)K output unitsCost function
2013-03-16 18:08:22 815
原创 Stanford ML - Lecture 4 - Neural Networks: Representation
1. Non-linear hypotheseswhy introduce non-linear hypotheses?high dimensional datanon-linear hypotheses2. Neurons and the brainNeural networksorigins: algorithms that try to m
2013-03-13 22:33:54 845
原创 Stanford ML - Lecture 3 - Logistic regression
1. Classification2. Hypothesis RepresentationLogistic Regression Modelthe above function is called sigmoid function or logistic functionInterpretation of Hypothesis outputestimated probability tha
2013-03-10 21:59:36 1345
原创 Stanford ML - Lecture 2 - Linear regression with multiple variable
Multiple featuresfor convenience of notation, define , the new hypothesis isGradient descent for multiple variablesnew algorithm isGradient descent in practive I: Feature S
2013-03-08 22:35:15 856
原创 Stanford ML - Lecture 1 - Linear regression with one variable
Model representationCost functionCost function intuition ICost function intuition IIGradient descentstart with some \theta_0, \theta_1keep changing \theta_0, \theta_1 to reduce
2013-03-07 19:57:45 770
转载 图像傅里叶变换
冈萨雷斯版《图像处理》里面的解释非常形象:一个恰当的比喻是将傅里叶变换比作一个玻璃棱镜。棱镜是可以将光分解为不同颜色的物理仪器,每个成分的颜色由波长(或频率)来决定。傅里叶变换可以看作是数学上的棱镜,将函数基于频率分解为不同的成分。当我们考虑光时,讨论它的光谱或频率谱。同样,傅里叶变换使我们能通过频率成分来分析一个函数。Fourier theory讲的就是:任何信号(如图像信号
2013-03-05 10:53:25 1620
转载 距离变换
距离变换和线性滤波器,形态学变换处于平等位置,是图像处理的一种方法,通过使用两遍扫描光栅算法可以快速计算到曲线或点集的距离。应用:水平集快速斜切匹配图像拼接图像混合的羽化临近点配准方法:首先对图像进行二值化处理,然后给每个像素赋值为离它最近的背景像素点与其距离(Manhattan距离or欧氏距离),得到dist
2013-03-04 20:48:26 679
原创 Bilateral Filtering - Theory and Applications
双边滤波(Bilateral filter)是一种可以保边去噪(edge-preserving and noise reducing)的滤波器。之所以可以达到此去噪效果,是因为滤波器是由两个函数构成。一个函数是由几何空间距离决定滤波器系数。另一个由像素差值决定滤波器系数。可以与其相比较的两个filter:高斯低通滤波器和α-截尾均值滤波器(去掉百分率为α的最小值和最大之后剩下像素的均值作为滤波器)
2013-03-04 20:25:18 1113
C++ FAQs [By Marshall Cline, Greg Lomow, Mike Girou][English]
2009-09-07
LogiScope 6.1.30[15](15-15)
2009-02-08
LogiScope 6.1.30[14](15-14)
2009-02-08
LogiScope 6.1.30[13](15-13)
2009-02-08
LogiScope 6.1.30[12](15-12)
2009-02-08
LogiScope 6.1.30[11](15-11)
2009-02-08
LogiScope 6.1.30[10](15-10)
2009-02-08
LogiScope 6.1.30[09](15-9)
2009-02-08
LogiScope 6.1.30[08](15-8)
2009-02-08
LogiScope 6.1.30[07](15-7)
2009-02-08
LogiScope 6.1.30[06](15-6)
2009-02-08
LogiScope 6.1.30[05](15-5)
2009-02-08
LogiScope 6.1.30[04](15-4)
2009-02-08
LogiScope 6.1.30[03](15-3)
2009-02-08
LogiScope 6.1.30[02](15-2)
2009-02-08
LogiScope 6.1.30[01](15-1)
2009-02-08
C++ FAQs [By Marshall Cline, Greg Lomow, Mike Girou][English]
2009-09-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人