![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 83
Evan_love
Never excuse for failure!
展开
-
xgboost学习笔记
基础知识一、决策树1. 决策树的定义 分类决策树模型是一种描述对实例进行分类的树形结构,决策树由结点(node)和有向边(directed edge)组成。结点有两种类型:内部结点(internal node)和叶结点(leaf node)。内部结点表示一个特征或属性,叶结点表示一个类。2.决策树是怎么工作的 决策树学习本质上是从训练数据集中归纳出一组分类规则。与训练数据集不相矛盾的决策树(即能对训练数据进行正确分类的决策树)可能有多个,也可能一个都没有。我们需要的是一个与训练数据矛盾较小的决策树原创 2022-02-02 22:11:18 · 1587 阅读 · 0 评论 -
李宏毅机器学习课程2021---Architecture Design(Depthwise Separable Convolution)
一、Standard CNN每个filter其实是一个立方体,4个filter参数共有72个。filter和channel是没有关系的。二、Depthwise Separable ConvolutionDepthwise Convolution有多少个channel就有多少个filter,Pointwise Convolutionfilter的大小只能是1×11\times 11×1三、参数量的差异(一和二)四、Low Rank approximation原先是W,现在原创 2021-08-22 17:00:18 · 222 阅读 · 0 评论 -
深度学习中的易混淆知识点总结(二)
一、真实值、观测值、预测值(1)真实值表示真实世界中的数据(总体),是肉眼看到的,没有任何误差的。(2)观测值表示机器学习模型的样本数据(样本),是模型的输入,但不一定是真实世界中的数据(可以来自真实世界)。eg. 如果是图像的话,就是模型摄像头通过图像传感器的输入。(3)预测值表示学习模型预测出的数据。二、随机扰动项、误差和残差(1)随机扰动项指的是数据本身的不确定性带来的误差,通常我们假设随机扰动项独立且服从均值为0,方差相同的正态分布。(2)残差是指预测值与实际值的差,由于残差的计算要用到原创 2021-08-11 23:04:51 · 5378 阅读 · 0 评论 -
特征提取和特征选择方法
一、特征提取和特征选择1、特征选择和特征选择的区别=特征选择和降维(特征提取)有些许的相似点=,这两者达到的效果是一样的,就是试图去减少特征数据集中的属性的数目;但是两者所采用的方式方法却不同:降维的方法主要是通过属性间的关系,如组合不同的属性得到新的属性,这样就改变了原来的特征空间;而特征选择的方法是从原始特征数据集中选择出子集,是一种包含的关系,没有更改原始的特征空间。2、常用的特征选择方法特征发散:如果特征不发散,也就是说特征的方差趋近于0,则代表这个特征上不同样本之间没有差异性,对区分样原创 2021-03-29 11:04:22 · 9788 阅读 · 0 评论 -
阿里天池上面关于天池竞赛入门经验分享笔记
以后可能要打天池比赛了,先了解一下别人的经验,跳一些坑。原创 2020-11-19 19:21:50 · 2390 阅读 · 0 评论 -
基于Windows平台在matlab上配置可使用的xgboost工具箱
一、下载在matlab中安装工具箱名为“Functions to run xgboost in Matlab”。2、创建一个文件夹 D:\r\xgboost(e.g.)3、创建一个空的git repository4、从https://github.com/dmlc/xgboost 将代码pull下来,注意是pull在D:\r\xgboost文件下5、git bash here(D:r\xgboost是同等级文件目录下,而不是里面)-open a git bash.在里面输入:* git sub原创 2020-11-13 09:09:29 · 5717 阅读 · 7 评论 -
CS230 Deep Learning Course—Andrew Ng teaches you how to read papers
CS230 Deep Learning Course—Andrew Ng teaches you how to read papersOne1、compile list of papers2、skip around the list3、maybe you initially start off with five papers4、go from the very efficient high information content first and then go to the harder m原创 2020-09-21 15:25:33 · 202 阅读 · 0 评论