![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
machine learning
文章平均质量分 77
qinjunu
这个作者很懒,什么都没留下…
展开
-
Linear Regression with multiple variables
Cost functionGradient Descentx0默认为1Feature ScalingIdea:Make sure feature are on a similar scale.Get every feature into approximately a (-1<=xi<1) range.(一般正负3之间即可)目的:将梯度下降的速度变得更快,收敛所需的...原创 2019-07-07 23:00:38 · 162 阅读 · 0 评论 -
Recommender Systems
Problem formulateon通过用户对电影已有的评分,预测对其他电影的评分。符号: n_u: 用户数量 n_m:电影数量 r(i,j) = 1:用户j对电影i已评价  ...原创 2019-09-05 20:25:46 · 167 阅读 · 0 评论 -
Anomaly detection(异常检测:用于无监督学习)
Gaussian distribution(高斯分布)高斯分布又称正态分布;正态曲线呈钟型,两头低,中间高,左右对称因其曲线呈钟形,因此人们又经常称之为钟形曲线。对一元高斯函数或多元高斯函数求积分,结果为1。若随机变量X服从一个数学期望为μ、方差为σ^2 的正态分布,记为N(μ,σ^2)。其概率密度函数为正态分布的期望值μ决定了其位置,其标准差σ决定了分布的幅度。当μ = 0,σ = 1...原创 2019-08-15 21:16:53 · 2738 阅读 · 1 评论 -
Dimensionality Reduction(降维)
目的Data Compression(数据压缩):减少内存所需空间 / 加快算法速度Data Visualization(数据可视化) (一般通过压缩至2个或3个特征)Principal Component Analysis(PCA:主成分分析)PCA算法简介寻找一个低维平面对数据进行投影,使得其投影误差最小。对比线性回归两者完全是不同的算法,线性回归目的是预测y...原创 2019-08-11 21:10:52 · 170 阅读 · 0 评论 -
K-Means(无监督算法)
概述K-Means是一种聚类算法,算法过程是以迭代的方式进行的。详解1. InputK(从数据中聚类出的簇的个数)Training set (drop x_0 = 1)2. ProcessRandomly initialize K cluster centroids μ1,μ2,.....,μk %随机初始化聚类中心Repeat{ %簇分配:离哪一个聚类中心...原创 2019-08-11 20:23:20 · 729 阅读 · 0 评论 -
Bias/variance && Error metrics(误差度量)
Debugging(调试) a learning Algorithm(总)1. high biasTry getting additional features(添加额外的特征)Try adding polynomial features(x12,x22,x1x2…)(添加多项式特征)Try decreasing λ2. high varianceGet more traing ...原创 2019-08-02 14:13:50 · 538 阅读 · 1 评论 -
Support Vector Machines(监督学习方法)
Logistic regression vs. SVM2. 适应场景1. 代价函数对比在SVM中,代价函数去掉了(1/m)在SVM中,用参数 C 替换了参数 λ(形式相当于 1/λ),参数的作用主要是控制我们更关心针对哪一项的优化。n = 特征数量 m = 训练集的数量i...原创 2019-08-04 12:14:56 · 149 阅读 · 0 评论 -
Neural Networks(监督学习方法)
Neural Networks1. 引入原因简单的逻辑回归并不是一个在 n 很大时学习复杂的非线性假设的好办法(计算量过大)。2. 初步认识E.g. 输入一个28*28像素的表格,输出一个0-9之间的个位数输入图像的每一个像素分别代表每一个神经元,其中装着的数字代表对应像素的灰度值,叫做“激活值(Activation)”参数展开:将28*28的矩阵转换成向量作为第一层激活值(...原创 2019-07-29 17:26:44 · 345 阅读 · 0 评论 -
Regularization(正则化)
Problemunderfitting(欠拟合) 又称(high bias 高偏差)overfitting(过度拟合) 又称(high variance高方差):千方百计拟合训练集,导致无法泛化(一个假设模型应用到新样本的能力)...原创 2019-07-16 12:39:32 · 232 阅读 · 0 评论 -
Linear Regression
Notationm = Number of training examples x = input variable/features y = output variable/ target variable(x,y) = one training example(x(i),y(i)) = ith training example(右上角)HypothesisCost...原创 2019-07-06 11:00:10 · 314 阅读 · 0 评论 -
(Un)Supervised Learning
Machine Learning两大学习方法:Supervised Learning和Unsupervised LearningSupervised Learning(监督学习)监督学习 :“right answers” given;每一个例子中含有正确答案。其又分为classification/regression- regression(predict continuous val...原创 2019-07-06 09:59:29 · 241 阅读 · 0 评论 -
Logistic Regression(属于Classification)
Classificationy∈{0,1} 0: “Negative Class”  ...原创 2019-07-15 12:22:19 · 334 阅读 · 0 评论 -
Octave基本操作
运算符号“+” ,“-”,“*”,“/”,“^”“==”,"~="“&&”,"||",“xor(0,1)”操作符号“%” 注释符号“;” &nb...原创 2019-07-10 15:50:57 · 2195 阅读 · 1 评论 -
Learning with large datasets
Stochastic gradient descent(随机梯度下降)对比Batch梯度下降Batch:批量;同时考虑所有的训练样本随机:每次仅仅考虑一个训练样本算法流程随机打乱所有数据 :将m个样本重新随机排序,提升收敛速度与Batch收敛形式对比:连续不断地在某个区域朝着全局最小值的方向徘徊,而不是直接打到最小值。Convergence(收敛)如果发...原创 2019-09-06 22:24:22 · 137 阅读 · 0 评论