自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 资源 (1)
  • 收藏
  • 关注

原创 语义分割及FCN

姓名:Jyx 班级:csdn人工智能直通车-5期 描述:这是本人在学习人工智能时的学习笔记,加深理解语义分割:语义分割就是对图片上的每个像素按照其所属的实例类型进行分类。如下图 传统的网络包含pool层,增大感受野,但对应的输出尺寸也会降低,要想做pixelwise prediction,必须保证输出尺寸与原图等大,但原来的结构最后被展开成一维向量丢失了位置信息,FC...

2018-08-01 00:12:39 510

原创 tensorflow object detection学习

姓名:Jyx 班级:csdn人工智能直通车-5期 描述:这是本人在学习人工智能时的学习笔记,加深理解tensorflow object detection apitensorflow object detection api 并不在主项目内,而是在单独开发的一个项目内,其路径为https://github.com/tensorflow/models/tree/mas...

2018-07-24 00:18:07 551

原创 感知器算法与神经网络,及反向传播算法的推导

姓名:Jyx 班级:csdn人工智能直通车-5期 描述:这是本人在学习人工智能时的学习笔记,加深理解 \newcommand{\bm}[1]{\boldsymbol{#1}} \newcommand{\bm}[1]{\boldsymbol{#1}}感知器模型(wiki)一个简单的感知器算法可以表示如下 yy=\sgn(wTx+b)=\sgn(w∗...

2018-06-24 23:39:08 865

原创 推荐系统-SVD/LFM基于模型的协同过滤

姓名:Jyx 班级:csdn人工智能直通车-5期 描述:这是本人在学习人工智能时的学习笔记,加深理解推荐系统SVD在推荐系统里,我们把用户和物品放在同一个矩阵里,矩阵里的每个元素rpqrpqr_{pq}代表用户ppp对物品qqq的评分。为了发现用户和物品间的联系,我们对矩阵进行分解 RN×D=⎛⎝⎜⎜⎜⎜p1p2⋮pN⎞⎠⎟⎟⎟⎟N×N⎛⎝⎜⎜⎜⎜⎜Σ110⋮...

2018-06-05 21:23:30 2781 6

原创 聚类算法及其评价

姓名:Jyx 班级:csdn人工智能直通车-5期 描述:这是本人在学习人工智能时的学习笔记,加深理解聚类聚类是一种非监督学习,聚类需要将一系列样本输入到聚类算法中,学习样本的内在结构。聚类往往不单独存在,而是作为一个大的监督学习算法的一部分存在聚类的原则。 类内散度最小,类间散度最大聚类的用途 3.1 减少计算量。通过对样本分类,以分类标签代替原始向量,大大...

2018-05-29 00:28:21 1820

原创 机器学习-数据降维算法

姓名:Jyx 班级:csdn人工智能直通车-5期 描述:这是本人在学习人工智能时的学习笔记,加深理解降维的意义在实际的机器学习案例里,因为我们不能完全的知道那些信息有用,而倾向于收集跟多的信息。这就导致样本非常多,而每个样本数也特别多。直接在这样的样本上进行学习,计算成本非常高。在对于给定样本数量,有一个特别的峰值现象,就是随着提供的特征增加,预测效果通常不...

2018-05-28 23:26:10 246

原创 lightGBM 与 Xgboost比较

姓名:Jyx 班级:csdn人工智能直通车-5期 描述:这是本人在学习人工智能时的学习笔记,加深理解lightGBM 是微软开发的一个GBDM开源实现,其相比Xgboost有如下优势(摘自LightGBM官方网站) 1. 速度和内存使用的优化 LightGBM 利用基于 histogram 的算法,通过将连续特征(属性)值分段为 discrete bins ...

2018-05-27 11:52:01 4403

原创 xgboost原理解析

姓名:Jyx 班级:csdn人工智能直通车-5期 描述:这是本人在学习人工智能时的学习笔记,加深理解前面我们探讨了什么是Gradient Boosting。xgboost是Gradient Boosting一种算法实现,从前面介绍知道,Gradient Boosting的优化过程只是利用了损失函数的一阶导数。与一般的Gradient Boosting不同,xgboost...

2018-05-22 00:12:17 489

原创 集成学习,adaboosting与Gradient Boosting 原理解析

姓名:Jyx 班级:csdn人工智能直通车-5期 描述:这是本人在学习人工智能时的学习笔记,加深理解集成学习集成学习将各种不同的学习器联合起来,以期提高总体的预测效果。为发掘各个学习器的优点,需要一套专门的方案来进行联合。 1. 几何平均。将各个分类器的预测结果进行几何平均。其基本原理是使联合后的概率与各个学习器预测的概率的KL距离最小化 2...

2018-05-21 23:01:59 3468

原创 分类算法-决策树

姓名:Jyx 班级:csdn人工智能直通车-5期 描述:这是本人在学习人工智能时的学习笔记,加深理解决策树 决策树(Desi)是一种有监督的学习模型,决策过程可以表达成一棵二叉树。类似于我们平时对物体进行分类的决策过程,每次根据一个属性对样本进行分类,知道达到终止条件,最后再根据一定的规则对树的叶子指定所属类。 最普通的决策树是将空间分成一个个超矩形,...

2018-05-16 08:12:36 681

原创 算法优化-少数样本处理

在检测少数样本时,如果我们采用正常的分类评价指标,则会发现,即使少数类全部分错,也能达到一个很高的正确率。所以我们在这种情况下需要另外的策略保证少数类得到足够的重视 1. 再抽样 1.1 对多数类随机欠采样 - 缺点:数据集没有完全被利用,而且有可能引入偏差 弥补: 集成学习: - EasyEnsemble: 并联...

2018-05-13 09:42:54 600

原创 机器学习多类问题解决方法

实现方式: 1 看成两类问题,把任意一类为正类和其余类看成负类进行分类,最终学成N个模型fi(y|θ)fi(y|θ)f_i(y|\theta) 我们将单个模型计算的fi(y=1|θ)fi(y=1|θ)f_i(y=1|\theta)的概率看成是该类发生的概率,计算N次,得到每一类发生的概率,我们取概率最大的那一类 2. softmax 分类器。 softmax分类器是Logi...

2018-05-13 09:23:11 224

原创 logistic回归

对于分类问题。我们可以做如下描述: 假定p(y|x)p(y|x)p(y|\boldsymbol{\mathrm{x}})为在给定xx\boldsymbol{\mathrm{x}}的条件下第yyy类发生的概率。给定训练数据{{xi,yi}|i=1,...,N}{{xi,yi}|i=1,...,N}\{\{\boldsymbol{\mathrm{x}}_i, y_i\}|i=1,...,N \},...

2018-05-12 23:09:18 152

原创 hadoop学习

大数据底层技术的三大基石起源于Google在2006年之前的三篇论文GFS、Map-Reduce、 Bigtable,其中GFS、Map-Reduce技术直接支持了Apache Hadoop项目的诞生,Bigtable催生了NoSQL这个崭新的数据库领域,由于map-Reduce处理框架高延时的缺陷, Google在2009年后推出的Dremel促使了实时计算系统的兴起,以此引发大数据第二波技术浪潮

2018-05-12 16:16:30 217

原创 分类问题的评价指标

分类问题同回归问题一样,也可以采用损失函数作为评价指标, 一、以损失函数作为评价指标    1.1 logistic/负log似然损失(log_loss): −logloss=−1N∑i=1N∑j=1Myijlogpijyij={1,i≠j0,i=j,pij代表预测为i类实际为第j类的概率,N代表样本数,M代表类别数(1190)(1190)−logloss=−1N∑i=1N∑j=1Myijl...

2018-05-12 16:14:34 7298 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除