![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 56
居南
这个作者很懒,什么都没留下…
展开
-
[机器学习]02.逻辑回归(Logistic Regression)
Logistic Regression 属于分类(classification)问题。在逻辑回归中,假设函数为其中g(z)为Sigmoid Function/logistic Function,形状如:此时,假设函数h(X)的意思为:对于样本x的y=1的可能性的大小Y=1 时,相当于 g(z)>=0.5 或z>0 或 h (x) >=0.5 或 X*theta >0原创 2017-05-24 18:49:57 · 225 阅读 · 0 评论 -
[机器学习]03.高级优化法(Advanced Optimization)
梯度下降调用fminunc函数先列出theta、cost function、以及cost function对各theta的偏导数在octave中创建一个costFunction,表示为调用fminuncOptimset : GradObj on:梯度下降打开。MaxIter:设置最大迭代次数100;opTheta:自动选择各种原创 2017-05-24 18:56:30 · 857 阅读 · 0 评论 -
[机器学习]04.多级分类(Multiclass classfication) 过度拟合(overfitting)
Multi-class classficationk类用k个分类器将一类取出,剩下所有的都归为一类,来进行第一次分类,再分下一个;当分类一个新的x时,放到假设函数去看哪个的可能性大过度拟合(overfitting)有很多特征变量,而训练集很少可能出现过度拟合解决:1.减少特征量2.Regularization 正则化Cost fu原创 2017-05-24 19:24:06 · 2385 阅读 · 0 评论 -
[机器学习]week3编程作业:Logistic Regression
plotData.mfunction plotData(X, y)%PLOTDATA Plots the data points X and y into a new figure % PLOTDATA(x,y) plots the data points with + for the positive examples% and o for the negative e原创 2017-05-24 19:40:42 · 1622 阅读 · 0 评论 -
[机器学习]01.线性回归(Linear Regression) 梯度下降(Gradient Decent)
线性回归(Linear Regression)1.假设函数( Hypothesis Function)给定了一系列离散的点,求一条直线与这些点最吻合。将这条直线的函数叫假设函数,设为改变theta的值时,式子将产生不同的直线,有的偏差严重,有的相对好一些。要看直线与点的吻合程度,需要一个函数来作为误差函数。2.代价函数(Cost Function)计算theta原创 2017-05-17 20:05:22 · 587 阅读 · 0 评论 -
[机器学习]week2编程作业:Linear Regression
ex1:warmUpExercise.m% ============= YOUR CODE HERE ==============% Instructions: Return the 5x5 identity matrix % In octave, we return values by defining which variables%原创 2017-05-18 20:43:51 · 840 阅读 · 0 评论 -
[机器学习]week4编程作业:Multi-class Classification and Neural Networks
lrCostFunction.mfunction [J, grad] = lrCostFunction(theta, X, y, lambda)%LRCOSTFUNCTION Compute cost and gradient for logistic regression with %regularization% J = LRCOSTFUNCTION(theta, X,原创 2017-06-05 19:12:48 · 790 阅读 · 0 评论 -
[机器学习]05.神经元神经网络
神经元模型,逻辑单元x0,偏置单位/偏置神经元=1Theta是参数,又称权重weight神经网络:不同的神经元在一起的组合第一层输入层input layer 最后一层输出层output layer 中间hidden layer当只有一层hidden layer时a第j层的第i个单位的激励Theta 第j到j+1层的作用函数原创 2017-06-05 20:27:34 · 290 阅读 · 0 评论