![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
weixin_41065383
这个作者很懒,什么都没留下…
展开
-
机器学习——从Adaboost,Gradient Boost到XGBoost
前言机器学习中用数据训练模型的目标: 最小化目标函数目标函数通常可以分为两部分:(1)损失函数(经验风险):与训练任务有关,度量模型预测值与真值之间的差异,最小化用于选择与训练数据匹配最好的模型:回归:与残差相关的函数,包括MSE(L2损失),MAE(L1损失),Huber Loss,平滑的MSE等;分类:与分类是否正确(或分类正确的概率)有关的的函数:0-1损失,负对数似然损失,Hin...原创 2019-04-10 17:38:38 · 2270 阅读 · 0 评论 -
支持向量机SVM公式推导
硬间隔SVM(含核函数)(1)原目标函数与原约束函数找到一个超平面,在所有样本点分类正确的前提下,使距离超平面(w,b)最近的几个样本点,与分隔超平面距离最大原目标函数:原约束条件:(2)通过等比例缩放w调整几何间隔,得到新的目标函数(3)求解不等式约束优化问题,利用拉格朗日乘子法转化为无约束问题(每个约束对应的乘子非负):(4)故原问题(Prime Problem)为极小极...原创 2019-04-11 14:24:06 · 186 阅读 · 0 评论 -
TensorFlow入门,简单实现全连接神经网络----Kaggle经典数据集Digit Recognizer
本文源代码与数据集链接:https://github.com/wait1ess/kaggle-10-most-popular-dataset(1)import numpy as npimport pandas as pdimport warningswarnings.filterwarnings('ignore')dpath='D:/kaggle-10-most-popular-dat...原创 2019-04-15 22:29:59 · 823 阅读 · 0 评论 -
通俗理解卷积神经网络----深度学习小白入门随笔
原文地址:https://blog.csdn.net/kanghe2000/article/details/70940491(原文有小瑕疵,池化过程是没有参数加权,加偏置的以及激活函数的概念的,本文有作修改)前言卷积神经网络(convolutional neural network,CNN),一种专门用于处理具有类似网络结构数据的神经网络,部分层使用卷积运算替代一般矩阵乘法运算的神经网络。下...转载 2019-04-16 13:06:24 · 1181 阅读 · 0 评论 -
通俗理解循环神经网络----深度学习小白入门随笔
原文地址:https://blog.csdn.net/zhaojc1995/article/details/80572098https://blog.csdn.net/jojozhangju/article/details/51982254前言循环神经网络( Recurrent Neural Networks,RNN),一类用于处理可变长度的序列数据的神经网络,其主要用途是处理和预测序列数据...转载 2019-04-16 16:53:09 · 1043 阅读 · 0 评论 -
Keras:基于Python的深度学习库(基础篇)----深度学习小白入门随笔
本文内容参考以下文章并做知识汇总:http://www.cnblogs.com/lc1217/p/7132364.htmlhttps://keras-cn.readthedocs.io/en/latest/1.关于Keras1)简介Keras是由纯python编写的基于theano/tensorflow的深度学习框架。Keras是一个高层神经网络API,支持快速实验,能够把你的idea...转载 2019-04-17 15:02:52 · 1612 阅读 · 1 评论 -
常用的分类问题中的损失函数
原文地址:https://redstonewill.com/1584/前言在监督式机器学习中,无论是回归问题还是分类问题,都少不了使用损失函数(Loss Function)。**损失函数(Loss Function)**是用来估量模型的预测值 f(x) 与真实值 y 的不一致程度。若损失函数很小,表明机器学习模型与数据真实分布很接近,则模型性能良好;若损失函数很大,表明机器学习模型与数据真实分...转载 2019-04-20 12:43:26 · 36167 阅读 · 3 评论