机器学习
PCChris95
这个作者很懒,什么都没留下…
展开
-
线性回归,决策树,knn等6种机器学习回归方法总结
线性回归:线性回归所能够模拟的关系其实远不止线性关系。线性回归中的“线性”指的是系数的线性,而通过对特征的非线性变换,以及广义线性模型的推广,输出和特征之间的函数关系可以是高度非线性的。决策树:在特征选择中通常使用的准则是:信息增益。决策树生成选择好特征后,就从根节点触发,对节点计算所有特征的信息增益,选择信息增益最大的特征作为节点特征,根据该特征的不同取值建立子节点;对每个子节点使用相同的方式生成新的子节点,直到信息增益很小或者没有特征可以选择为止。ID3 算法ID3 是最早提..原创 2020-11-13 09:07:10 · 2911 阅读 · 0 评论 -
机器学习之svm专题
参考文章:SVM如何用于回归分析手把手教你实现SVM算法(一)四颗星LR与SVM的异同支持向量机通俗导论(理解SVM的三层境界)(1000多个赞。。)SVM模型主要问题SVM要点:**距离度量**,**支持向量**,**损失函数**,**对偶问题**,**拉格朗日乘法**,**核函数**,**软间隔**SVM算法的主要优点有:1) 解决高维特征的分...原创 2019-03-22 19:45:55 · 316 阅读 · 0 评论 -
如何通俗易懂地讲解牛顿迭代法?
本文转载自:https://www.matongxue.com/madocs/205.html 五次及以上多项式方程没有根式解(就是没有像二次方程那样的万能公式),这个是被伽罗瓦用群论做出的最著名的结论。但是,没有王屠夫难道非得吃带毛猪?工作生活中还是有诸多求解高次方程的真实需求(比如行星的轨道计算,往往就...转载 2019-03-29 21:38:26 · 757 阅读 · 0 评论 -
牛顿法和梯度下降法的区别
解析: 牛顿法(Newton's method)牛顿法是一种在实数域和复数域上近似求解方程的方法。方法使用函数f (x)的泰勒级数的前面几项来寻找方程f (x) = 0的根。牛顿法最大的特点就在于它的收敛速度很快。具体步骤:首先,选择一个接近函数 f (x)零点的 x0,计算相应的 f (x0) 和切线斜率f ’ (x0)(这里f ’ 表示函数 f 的导数)。然后我们计算穿过点(x0,...原创 2019-03-29 21:56:54 · 4426 阅读 · 0 评论 -
机器学习之问答题汇总
机器学习面试问题汇总—史上最详细BAT机器学习面试1000题系列特征工程问题汇总机器学习之特征工程相关问题模型优化问题常见的损失函数有哪些?机器学习中常见的损失函数机器学习中防止过拟合的方法:正则化,L1正则化和L2正则化early_stop,设定一个目标损失值,到达之后停止增加数据样本,复采样dropout参考文章:机器学习中防止过拟合的处理方法极值点...原创 2019-03-29 22:30:08 · 2277 阅读 · 0 评论 -
BAT机器学习面试1000道
本文转载自: https://blog.csdn.net/sinat_35512245/article/details/78796328 1.请简要介绍下SVM。SVM,全称是support vector machine,中文名叫支持向量机。SVM是一个面向数据的分类算法,它的目标是为确定一个分类超平面,从而将不同的数据分隔开。扩展:支持向量机学习方法包括构建由简至繁的...转载 2019-03-30 11:26:10 · 8431 阅读 · 0 评论 -
推荐算法资料汇总
常见推荐算法科普这篇文章主要是科普类的,介绍了主要的推荐算法有流行度推荐,基于内容推荐,协同过滤推荐以及混合推荐。流行度推荐是推荐现在最火热的内容给用户,基于内容的推荐是推荐给用户喜欢的类似的内容,协同滤波推荐主要介绍相似的物品和相似的用户的差异项给用户,混合推荐则将几种方法混合起来进行推荐。推荐算法和机器学习系列 - 协同过滤推荐算法和余弦相似性算法这篇文章主要介绍了协同过滤的具体...原创 2019-03-24 09:42:48 · 231 阅读 · 0 评论 -
面试笔试整理3:深度学习机器学习面试问题准备(必会)
本文转载自:https://blog.csdn.net/woaidapaopao/article/details/77806273第一部分:深度学习1、神经网络基础问题(1)Backpropagation(要能推倒) 后向传播是在求解损失函数L对参数w求导时候用到的方法,目的是通过链式法则对参数进行一层一层的求导。这里重点强调:要将参数进行随机初始化而不是全部置0,否则所有隐层的数值都...转载 2019-03-31 15:53:46 · 460 阅读 · 0 评论 -
神经网络BP反向传播算法原理和详细推导流程
本文转载自:https://blog.csdn.net/qq_32865355/article/details/80260212 1 反向传播算法和BP网络简介 误差反向传播算法简称反向传播算法(即BP算法)。使用反向传播算法的多层感知器又称为BP神经网络。BP算法是一个...转载 2019-03-28 11:32:20 · 827 阅读 · 0 评论 -
隐式马尔可夫链
原创 2019-04-07 16:33:53 · 1195 阅读 · 0 评论 -
算法岗面试题目汇总
目录阿里巴巴一面阿里巴巴二面oppo一面笨鸟科技京东二面:算法题:阿里巴巴一面特征值怎么去除掉行业和市值的影响?去残差是什么意思? cnn的那个项目数据处理是怎么做的? 卷积神经网络预测股票走势项目内容概括 为什么用cnn来预测时序的模型? cnn这个项目里面有没有遇到什么困难? 讲一下q-learning的那个项目? 这...原创 2019-04-22 21:59:19 · 1850 阅读 · 0 评论 -
Inception简介
参考文章:一文概览Inception家族的「奋斗史」Inception v1(ILSVRC14):产生动机:自2012年AlexNet做出突破以来,直到GoogLeNet出来之前,大家的主流的效果突破大致是网络更深,网络更宽。但是纯粹的增大网络有两个缺点:过拟合和计算量的增加。同时还有梯度弥散问题。方法当然就是增加网络深度和宽度的同时减少参数。但结构稀疏性和运算能力有矛盾,需要...原创 2019-03-13 14:16:20 · 1138 阅读 · 0 评论 -
WIN10 xgboost gpu配置最简便方法
在网上找了很多种方法,结果这种方法是最简便的,步骤也很简单。第一步从这里下载xgboost源代码:第二步从这里下载支持GPU版已编译好的DLL文件,并放在第一步下载好的文件xgboost-master/python-package/xgboost目录下。第三步进入到第一步下载好的文件的xgboost-master/python-package,打开cmd,执行pyt...原创 2018-08-01 09:44:50 · 6622 阅读 · 11 评论 -
机器学习树模型——决策树
声明在参加大数据竞赛的过程中发现用到的算法都是基于树模型的,想着将所有的树模型算法全部归纳总结一下,形成自己的知识体系,本文是机器学习树模型系列文章中的第一篇,讲解最基础的决策树模型,本人不是什么大牛,文章也是自己对于树模型的理解,如果有什么不正确的地方还望指出,欢迎留言讨论,共同进步!正文对决策树定义的理解顾名思义,树模型因为包含多个分支,像大树一样不断的分散开来所以得名树模型,...原创 2018-08-18 09:00:51 · 721 阅读 · 0 评论 -
训练集,测试集和验证集划分的意义
训练集、验证集和测试集的意义有了模型后,训练集就是用来训练参数的,说准确点,一般是用来梯度下降的。而验证集基本是在每个epoch完成后,用来测试一下当前模型的准确率。因为验证集跟训练集没有交集,因此这个准确率是可靠的。那么为啥还需要一个测试集呢?这就需要区分一下模型的各种参数了。事实上,对于一个模型来说,其参数可以分为普通参数和超参数。在不引入强化学习的前提下,那么普通参数就是可以被梯度...原创 2018-12-02 13:10:30 · 2920 阅读 · 0 评论 -
AI简历问题解答
1. 朝阳永续库是什么?原创 2019-03-14 15:35:53 · 616 阅读 · 0 评论 -
深度学习之利用卷积神经网络预测股票走势
卷积神经网络项目是我在华泰实习的过程中做的一个项目,主要是用卷积神经网络来预测股票的走势,现在对项目做一个总结。报告详情:【华泰金工林晓明团队】人工智能选股之卷积神经网络——华泰人工智能系列之十五测试流程包含如下步骤:数据获取:a)股票池:全A股。剔除ST股票,剔除每个截面期下一交易日停牌的股票,剔除上市3个月内的股票,每只股票视作一个样本。b)回测区间:2011年1月31日至201...原创 2019-03-14 17:35:58 · 12256 阅读 · 1 评论 -
机器学习之特征工程相关问题
特征工程-处理样本不均衡现象处理样本不均衡现象原创 2019-03-11 22:59:33 · 214 阅读 · 0 评论 -
机器学习之boosting和bagging
整理出所有介绍boosting的文章进行归纳总结为什么说GBDT是在拟合残差?残差的计算公式是哪些?原创 2019-03-08 10:04:24 · 585 阅读 · 0 评论 -
机器学习之面试问答题汇总
Kmeans(K均值)与Kmeans++和KNN(K近邻)算法比较原创 2019-03-08 11:05:33 · 391 阅读 · 0 评论 -
浅谈GBDT
最近参加比赛有用到xgboost,比赛整体下来知其然不知所以然,只会调参跑结果,正好趁暑假将原理好好梳理一下。xgboost从GBDT算法衍生出来,自然需要先把GBDT给弄清楚,看了几天GBDT的介绍,现在把自己了解的整理一下,以供自己以后参考,以后还会随着自己的理解不断增减内容。参考文献:GBDT(Gradient Boosting Decision Tree) 没有实现只有原理GB...原创 2018-08-09 12:14:48 · 230 阅读 · 0 评论