- 博客(10)
- 收藏
- 关注
原创 第七章主成分分析 笔记
主成分分析PCA (primary component analytic )一个非监督的机器学习算法主要用于数据的降维通过降维,可以发现更便于人类理解的特征其他应用:可视化;去噪方差越大,样本越稀疏;方差越小,样本越紧密。目标:找到一个轴,使得样本空间的所有点映射到这个轴上,样本的方差最大第一步:将样本的均值归为0(demean)第二步:要求一个轴的方向w=(w1,w2),使得所有样本映射到w以后,其方差最大 #例子为2维此算法是非监督学习算法,因为目标函数中不需要y。向量化求梯
2020-12-02 15:57:14
178
原创 第九章逻辑回归笔记
逻辑回归逻辑回归模型的值代表该样本XiX_iXi为某一类的概率,所求出来的Decision Boundary就是sigmoid函数里的公式大于0的情况。(见下图例子)如果要求非线性的Decision Boundary,则可以添加多项式特征。(见下图例子)逻辑回归没有正规方程解。求导##李宏毅机器学习课补充辨别模型(逻辑回归)和生成模型:数据量充足的情况下,通常辨别模型性能要优于生成模型数据量少的情况下,生成模型因为有自己的假设,对数据不敏感,可以自己“脑补”,所以能有
2020-12-02 15:56:12
82
原创 第十章评价分类结果
10.1 分类准确度的问题对于极度偏斜的数据,只用分类准确度是远远不够的。(比如癌症预测,只有0.01%的癌症患者,会有极高的准确度)混淆矩阵 Confusion Matrix例子:预测10000个人是否患癌症10.2 精准率和召回率精准率直观解释:预测出来的所关注的类(1:患病)中正确的比例召回率直观解释:有多少真实的所关注的类(1:患病)被预测出来一个很好的解释图:10.4 F1-ScoreF1 是 precision和recall的调和平均值10.5 p
2020-12-02 15:55:53
178
原创 第八章多项式回归与模型泛化笔记
学习曲线:每次看前i个数据,记录每次的训练损失与验证损失,最终绘制x轴为数据数量,y为损失的函数。(希望test loss越接近train test越好,并且test loss越小越好)交叉验证:把训练集分成K份(因为如果只有一个固定的验证集,可能模型会对验证集过拟合。)缺点:每次训练都要训练K个模型,相当于整体性能慢了K倍。留一法(Leave-One-Out Cross Validation,LOO-CV):把训练数据集分成m份(意味着每份一个数据)优点:完全不受随机的影响,最接近模型真正
2020-11-29 18:18:22
135
原创 第六章梯度下降法笔记
梯度下降法不是一个机器学习算法,是一个基于搜索的优化算法。用于最小化损失函数(或最大化效用函数:梯度上升法)导数:可以代表方向,对应损失函数J增大的方向学习率α\alphaα:梯度下降法的一个超参数...
2020-11-25 15:21:42
77
原创 第五章线性回归算法
5.1 简单线性回归解决回归问题具有可解释性很多算法的基础目标函数损失函数(越小模型越好)和效用函数(最大模型越好)统称为目标函数。推荐学习:最优化原理和凸优化原理。求解参数向量化运算向量化运算性能大于for循环5.5 衡量模型的指标:MSE,RMSE,MAE为了让量纲与y一致(比如房产预测中都是万元),使用RMSE。RMSE相较于MAE,可将误差大的值放大,因此在损失函数中使用形如MSE的平方形式作为目标函数,可以更好的拟合数据。让RMSE更小,会比MAE更
2020-11-24 16:28:02
132
原创 Python3玩转机器学习第四章笔记
第四章笔记 - kNN- k近邻算法(k-Nearest Neighbors)算法思想:在一个散点分布的数据中,取出k个与新传入数据最近的点,以这些点中属于某种样本最多的点为该数据的target调参:指调超参数,而不是模型参数可通过网格搜索,GridSearich。不同距离计算公式:曼哈顿距离欧拉距离明可夫斯基距离...
2020-11-20 17:37:00
96
原创 Python3玩转机器学习第三章笔记
Python3玩转机器学习第三章笔记文章目录Python3玩转机器学习第三章笔记Jupyter notebookjupyter的一些魔法命令:Numpy创建numpyrandom基本属性合并与分割numpy.array中的运算numpy中的聚合运算numpy中的arg运算排序和使用索引Fancy indexingnumpy.array的比较matplotlib 基础折线图Scatter Plot散点图Jupyter notebook一些快捷键:Tab: 可补全代码tip:在模块、函数后面加“?
2020-11-19 19:16:15
173
原创 深度学习学习路线及计划
深度学习学习路线及计划:11.18-11.30:学完吴恩达机器学习课程,目前进度week6。学习慕课网课程Python3入门机器学习 经典算法与应用 轻松入行人工智能12月:学完deeplearning课程(B站or Courera)https://www.bilibili.com/video/BV1BZ4y1M7hFfrom=search&seid=12982164509102587201月:学习pytorch(学习路径待定)学习斯坦福大学NLP课程CS224N:http
2020-11-19 00:19:53
707
原创 吴恩达机器学习week5 笔记
吴恩达机器学习week5 笔记Gradient checking : 是用计算一种近似值的方法来检查反向传播中得到的Gradient是否有bug,近似值计算方法:gradApprox:=J(θ+ε)−J(θ−ε)2εgradApprox:= {J(\theta+\varepsilon)-J(\theta-\varepsilon) \over 2\varepsilon}gradApprox:=2εJ(θ+ε)−J(θ−ε) Notes1.对于每一个θi\theta_iθi,都计算一个近似值
2020-11-18 23:13:37
80
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人