机器学习
记录个人的机器学习过程
Sansui_Meng
985硕士在读,放养阶段,自学C++
Github:https://github.com/mengssui
展开
-
吴恩达机器学习-第七周
本周主要内容1.支持向量机优化目标2.支持向量机大边界3.核函数 1.支持向量机优化目标 SVM (Support Vector Machine) 由逻辑回归修改至支持向量机:假设函数:hθ(x)=11+e−θTx假设函数:h_\theta(x)={1 \over 1+e^{-\theta^Tx} } 假设函数:hθ(x)=1+e−θTx1 可知: 逻辑回归为分类函数,如果y=1则希望hθh...原创 2019-12-29 19:45:15 · 243 阅读 · 0 评论 -
吴恩达机器学习-第六周
本周主要内容1.模型选择和交叉验证集2.诊断偏差和方差3.学习曲线 1.模型选择和交叉验证集 数据分为:训练集,交叉验证集,测试集 使用训练集练出多个模型 对多个模型分别用交叉验证集得出交叉验证误差(代价函数的值) 选取代价函数值最小的模型 使用3中选出的模型计算代价函数 2.诊断偏差和方差 训练集误差和交叉验证集误差近似时:偏差/欠拟合 交叉验证集误差远大于训练集误差时:方差/过拟合 应对方...原创 2019-12-29 17:04:16 · 250 阅读 · 0 评论 -
吴恩达机器学习-第五周
本周主要内容1.代价函数2.反向传播3.梯度检验4.随机初始化5.使用神经网络的步骤 1.代价函数 类似逻辑回归,逻辑回归中函数是一个,但是对于神经网络是相当于有多个函数,h(Θ)h(\Theta)h(Θ)中的Θ\ThetaΘ不是逻辑回归中的w,bw,bw,b向量,而是w,bw,bw,b的矩阵。 J(Θ)=−1m[∑i=1m∑k=1kyk(i)log(hΘ(x(i)))k+(1−yk(i))...原创 2019-12-27 16:52:06 · 189 阅读 · 0 评论 -
系统学习机器学习开篇
记录学习原创 2019-09-12 20:01:07 · 133 阅读 · 0 评论 -
吴恩达机器学习-第一周
本周主要内容 1. 机器学习定义 2. 监督学习和无监督学习概述 3. 单变量线性回归 4. 梯度下降 5. 线性代数回顾 1、机器学习定义 个人理解:就是通过大量的数据构造出模型,再用模型去预测新的数据的过程。 看到别的博客讲述比较好的定义:机器学习的定义 2、监督学习和无监督学习 监督学习:数据集中的每个样本有已知的输出,再根据样本做出预测。(需要知道预测的内容,即目标变量的...原创 2019-09-12 21:22:42 · 95 阅读 · 0 评论 -
吴恩达机器学习-第二周
本周主要内容1、多变量线性回归 1、多变量线性回归 指样本有多个特征,nnn代表特征数量,x(i)x^{(i)}x(i)代表第iii个训练实例,是特征矩阵中的第iii行 每个实例有nnn个特征,xj(i)x_j^{(i)}xj(i)代表第iii个实例中的第jjj个特征。 多变量的的假设函数: hθ(x)=θ0+θ1x1+θ2x2+...+θnxnh_\theta(x) = \th...原创 2019-09-13 15:03:25 · 99 阅读 · 0 评论 -
吴恩达机器学习-第三周
本周主要内容1.逻辑回归 1.逻辑回归 逻辑回归(Logistic Regression)是一种分类算法,该模型的输出变量范围在0和1之间。 逻辑回归的假设函数为hθ=g(θTX)h_\theta = g(\theta^TX)hθ=g(θTX),g表示逻辑函数(Logistic Function)是一个常用的S型函数(Sigmoid Function),公式为g(z)=11+e−zg(z) ...原创 2019-09-13 16:25:29 · 134 阅读 · 0 评论 -
吴恩达机器学习-第四周
本周主要内容1.神经网络综述2.神经网络表示逻辑运算3.多类分类 1.神经网络综述 由于线性回归和逻辑回归在特征较多时候计算负荷很大,这时候我们就需要神经网络。神经网络产生的原因是人们想尝试设计出模仿大脑的算法。 神经网络中,参数可被称为权重(weight) 一个3层的神经网络,第一层为输入层,最后一层为输出层,中间为隐藏层,每一层增加一个偏差单元(bias unit)。 一些标记法...原创 2019-09-23 17:17:23 · 213 阅读 · 1 评论