![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
gdutLHD
这个作者很懒,什么都没留下…
展开
-
吴恩达机器学习课程之参数拟合
参数拟合概念 拟合是指从训练数据学习目标函数,过拟合是指目标函数对训练数据的预测能力很强,但对测试数据预测能力很差,欠拟合是指目标函数对训练数据和测试数据的拟合程度都很差。 参数学习算法与非参数学习方法 参数学习方法是指目标函数在训练过程中参数是固定的,例如线性回归算法,而非参数学习方法是指目标函数在训练过程中参数是可变的,例如局部加权回归算法 局部加权回归算原创 2017-12-08 20:19:06 · 1072 阅读 · 0 评论 -
吴恩达机器学习之牛顿方法
牛顿方法原理 给定一个函数f(θ)f(\theta),为了求解f(θ)=0f(\theta)=0时θ\theta的值,可以用迭代方法逼近真实值 给定初始化值θ0\theta_0,使得f(θ0)=0f(\theta_0)=0 求解f(θ1)=0f(\theta_1)=0时θ\theta的值,根据导数的定义有:θ1=θ0−f(θ0)f′(θ0)\theta_1=\thet原创 2017-12-10 22:16:55 · 876 阅读 · 0 评论 -
吴恩达机器学习之经验风险最小化
偏差与方差权衡 当模型对数据的拟合程度不够时,预测值与真实值的误差较大,此时偏差很大,当模型对数据的拟合得很好时,预测值与真实值的误差较小,但此时方差很大。 训练误差与一般误差 定义训练误差(经验风险ERM): ξ^(hθ)=1m∑iI(hθ(xi)≠yi)\hat{\xi}(h_\theta)=\frac{1}{m}\sum_iI(h_\theta(x^i)\n原创 2017-12-22 16:51:27 · 846 阅读 · 0 评论 -
吴恩达机器学习之朴素贝叶斯
判别学习算法与生成学习算法 判别学习算法直接学习p(y∣x)p(y\mid x)或者hθ(x)h_\theta(x) 生成学习算法通过对类条件概率p(x∣y)p(x\mid y)建模,得到后验概率p(y∣x)p(y\mid x) 高斯判别分析 假设y∈Bernoulli(ϕ)y\in Bernoulli(\phi),即p(y=1∣x)=phi)p(原创 2017-12-14 20:16:53 · 1895 阅读 · 2 评论 -
吴恩达机器学习之最优间隔分类器
最优间隔分类器 定义目标函数: hw,b=g(wTx+b)h_{w,b}=g(w^Tx+b),g(z)={10z≥0z<0g(z)=\begin{cases} 1&z\geq0 \\ 0&z<0 \end{cases},y∈{−1,1}y\in \lbrace-1,1\rbrace 定义函数间隔: Υ−i=yi(wTxi+b)\Upsilon^{-原创 2017-12-16 19:50:35 · 700 阅读 · 0 评论 -
吴恩达机器学习课程(一)之梯度下降原理
吴恩达机器学习课程(一)之梯度下降法原创 2017-12-07 21:20:48 · 1119 阅读 · 0 评论 -
吴恩达机器学习之顺序最小化优化算法
核函数的定义 定义映射x→ϕ(x)x\rightarrow\phi(x),其中x∈Rx\in R,ϕ(x)\phi(x)是一个向量 核函数定义①: k(x,z)=(xTz)2=(∑ixizi)(∑jxjzj)k(x,z)=(x^Tz)^2=(\sum_ix_iz_i)(\sum_jx_jz_j) =∑i∑j(xixj)(zizj)=(ϕ(x)Tϕ(z))=\sum_i\sum_原创 2017-12-19 15:36:02 · 1330 阅读 · 0 评论