机器学习
tesesa_zhang
这个作者很懒,什么都没留下…
展开
-
李宏毅深度学习作业HW2 LR classification逻辑回归
这里写自定义目录标题流程往里面填充代码数据读取损失space后,将生成1级标题。如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入不用库,numpy代码实现流程先定义一下框架:class LR: def __init__(self): #定义一些初始变量,如权重原创 2020-07-07 22:22:28 · 589 阅读 · 0 评论 -
PCA SVD
不知道有没有跟我一样的白痴,看了半天PCA和SVD,老是不明白怎么用SVD来进行PCA降维,现在算是悟过来了。PCA名字叫主成分分析,目的在于得到主成分,降维是为了用重要的主成分来表示原始数据,那只要得到主成分就好了。得到主成分的方法有两种:一是特征值分解,就是我们平时说的PCA,主要是针对方阵,缺点是要得到协方差矩阵之后来得到主成分,暴力分解。另一种是SVD分解,好处是不用得到协方差矩阵,直接拿原始数据来算,简单。因此,PCA是一个目标,就比如罗马,你要到罗马,正着走反着走都行,那么你可以选择用特征值分原创 2020-06-15 16:38:20 · 164 阅读 · 0 评论 -
GBDT的感悟
在看GBDT的时候,会迷茫,怎么又是沿损失函数梯度反方向下降,又是沿残差下降,后来看了《统计学习方法》,明白了:对于一般的损失函数的话,就是沿损失函数的梯度反方向下降,如果对于损失函数是MSE这种情况,刚好梯度反方向是残差。等于说残差是特例!...原创 2020-06-15 16:32:07 · 122 阅读 · 0 评论