机器学习理论
噜噜的小苹果
这个作者很懒,什么都没留下…
展开
-
达观杯数据竞赛 -- LR+SVM处理词向量特征
文章目录LR模型详解LR简介关于sigmoid 函数sigmoid函数LR为什么用sigmoid函数?关于损失函数处理非线性问题特征离散化LR处理TF-IDFLogisticRegression 参数详解LR实战SVM模型详解SVM简介SVM标准问题的推导线性可分数据近似线性可分数据非线性可分数据SVM处理TF-IDFSVM的几个重要概念sklearn.svm 函数SVM实战参考资料LR模型详解...原创 2019-04-11 21:41:50 · 981 阅读 · 1 评论 -
pytorch 入门 - 优化算法详解
文章目录梯度下降法(Gradient Descent)GD算法的实现方式BGD(Batch Gradient Descent)SGD(Stochastic Gradient Descent)MBGD (Mini-Batch Gradient Descent)梯度下降算法的不足GD算法的改进MomentumNesterov Accelerated Gradient自适应优化算法AdagradAdad...原创 2019-04-16 22:40:35 · 2256 阅读 · 0 评论 -
招商Fintech学习笔记 -深度学习 - 深度学习简介
线性模型构建XOR多层感知器其中A为 and 操作,B为 or操作, C 为 not操作。感知器如何学习‘分类’蓝色点为分类错误的点,蓝黄两部分是由直线l:3x1+4x2−10=0l:3x_1+4x_2-10=0l:3x1+4x2−10=0 划分的,其中t黄色部分为l:3x1+4x2−10<0l:3x_1+4x_2-10<0l:3x1+4x2−10&l...原创 2019-04-16 23:22:31 · 1078 阅读 · 0 评论 -
pytorch 入门 - L1,L2正则,Dropout
文章目录Dropoutdropout 简介dropout具体工作流程dropout 数学表达dropout如何解决过拟合dropout 使用场景Dropout的numpy实现PyTorch中实现dropout参考资料Dropoutdropout 主要用于解决训练过程中模型出现过拟合的问题。在模型训练过程中,当训练集上的正确率很高,但验证集上的正确率很低时,即发生了过拟合。解决过拟合的方法有很多...原创 2019-04-17 09:14:29 · 240 阅读 · 0 评论 -
Datawhale第7期-《李宏毅机器学习》作业(一)
任务:1.了解什么是Machine learning2.学习中心极限定理,学习正态分布,学习最大似然估计3.推导回归Loss function4.学习损失函数与凸函数之间的关系5.了解全局最优和局部最优6.学习导数,泰勒展开7.推导梯度下降公式8.写出梯度下降的代码9.学习L2-Norm,L1-Norm,L0-Norm10.推导正则化公式11.说明为什么用L1-Norm代替L...原创 2019-05-13 21:23:30 · 459 阅读 · 0 评论 -
Datawhale 第7期 《李宏毅机器学习》任务四
学习打卡内容:从基础概率推导贝叶斯公式,朴素贝叶斯公式(1)学习先验概率(2)学习后验概率(3)学习LR和linear regreeesion之间的区别(4)推导sigmoid function公式(5)Q1: 用回归模型是否可以做分类?最好不要。如果有一个二分类问题并且已经得到一个回归模型,这时候就有人会把分类当作回归硬解。例如把回归预测值更接近-1的部分划分为1类,更接近1...原创 2019-05-25 21:01:38 · 183 阅读 · 0 评论 -
Datawhale第7期-《李宏毅机器学习》作业(二)
文章目录理解偏差和方差误差为什么是由偏差和方差组成,推导相关公式误差、偏差与方差的实际意义过拟合、欠拟合分别对应bias和variance什么情况利用bias和variance分析模型拟合状态redesign 模型交叉验证N-fold 交叉验证梯度下降1.调整学习率AdagradAdagrad进一步解释2.随机梯度下降法Batch与Mini-Batch,SGD梯度下降的区别学习归一化学习回归模型评...原创 2019-05-17 20:58:31 · 624 阅读 · 0 评论