自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 资源 (1)
  • 收藏
  • 关注

原创 nlp和机器学习面试遇到的问题

感谢各个阶段的面试官问的一些问题,让我受益匪浅。1、一位不太做技术的领导,让我介绍自己项目。我开始介绍过程和细节,他不耐烦了,让我介绍思路,不要介绍细节。2、互联网公司技术面,手写场景题代码。我没刷题,所以写不上,但是我是懂数据结构的。秋招如果不顺利, 我会刷题刷到春招。3、nlp主管电话面,我觉得说的非常棒,令我学到很多东西。如一个词如何用lstm网络生成词向量,Wor...

2019-09-20 17:26:42 217

原创 大白话解释GBDT

GBDT是一种boosting算法,该算法由多棵CART回归树组成,所有树的结论累加起来做最终答案。学GBDT到底学什么?第一、GBDT的损失函数是什么?第二、GBDT的核心思想第三、为什么说GBDT是基于残差的拟合预测,那为什么不叫残差提升树呢?1、因为GBDT基树全是CART回归树,所以基本上用CART是预测回归问题(有认识加以改造可以用来预测分类问题,我没研究过)。基...

2019-08-26 17:21:35 734

原创 大白话讲解随机森林

因为马上秋招了,记录下自己的理解,自认为随机森林理解的很透彻。最主要的是要讲随机森林和adaboost/gbdt/xgboost进行横向对比学的才有意义。没时间排版了,毕竟内容才是最重要的,对不?开始。一、 随机,指的是随机选取一份数据里面的样本数量和随机选取哪个特征。森林,指的是多颗决策树组成的机构(一大片树)。一句话你肯定不懂。随机森林就是用随机的方式建立一片森林。 ...

2019-08-26 11:49:01 2841

原创 降维算法和特征选择区别_大白话解释

无论是PCA还是SVD降维算法,都是在进行特征压缩,创造出新的特征(无法解释清楚的特征)。而特征选择是属于特征工程中的一种手段,它是在现有特征中选取信息量大的特征,并没有创造新特征。...

2019-07-14 16:30:02 525

原创 PCA主成分分析_大白话解释

个人认为大多数人都不需要完整看懂PCA的推导算法,即使看懂了面试官考你也记不住。所以只需要反复问自己几个问题:一是PCA是啥算法,干什么用的;二是为什么会产生PCA这种算法(每一种算法都是为了解决某类问题而产生的);三是PCA算法所用衡量大小的指标是什么(每一种算法实际上都有一种度量大小量的指标,例如度量一个特征到底对预测结果有没有用?有多大用)。 下面分别回答这三个...

2019-07-14 16:07:21 527

原创 tf.argmax大白话解释

一句话概括,argmax返回的是矩阵中一行或一列中最大值的索引。tf.argmax(qs,0),返回的是qs矩阵中第1列最大值的索引编号。

2019-07-05 07:40:47 161

原创 tf.shape.eval大白话解释

tf.shape(a).eval(),是将a矩阵的维度打印出来的意思。加eval(),就可以打印了,不用输入print.

2019-07-05 07:36:46 166

原创 tf.cast大白话解释

言简意赅,直接说。tf.cast是框架里的类型转换函数,tf.cast(pred,"float"),将pred预测值转换成浮点类型,很常用,因为tensorflow里面只支持float类型...

2019-07-05 07:32:46 321

原创 tf.rank函数大白话解释

这年头想tensorflow,主要是搞明白结构和框架里常用的函数。tf.rank这个函数不常用,也不好理解,所以各位不用深究。只要看到这个函数不慌就行。tf.rank在我理解看来是数组的维度。numpy里弄个[[[1,2,3]]],这是三维数组,rank=3。[[1,2,3;4,5,6;7,8,9]],这是二维数组,rank=2。[[[1,2,3;4,5,6;7,8,9]]],这...

2019-07-05 07:30:03 1820

原创 图像金字塔里的几个基础概念

先上个金字塔图。一、1.pyrup虽然叫向上采样,但应该叫向大采样更合理,因为是向图像分辨率大的层采样。它是两个方向分别扩大两倍,用0填充。2.pyrdown向下采样就是向分辨率小层采样,两个方向偶数行全去除,整体缩小二倍。二、 向下采样和向上采样还不是互逆过程,即缩小图片和放大不是互逆的,因为这个过程存在信息丢失问题。因此,出现了拉普拉斯金字塔,意思是 原图像–某...

2019-05-23 10:19:16 545

原创 tf.reduce_sum函数通俗解释

本篇文章对tf.reduce_sum函数做出我的理解。在搭建神经网络模型中,免不了碰到这个函数。首先,应拆开来看这个函数。reduce顾名思义是减小的意思,这里用来表示降维,什么?不懂什么叫降维,没关系下面我会做出通俗解释。_是一个tensorflow里特别愿意使用的分隔符,_后面是降维的方式,很显然这里降维的方式是求和sum。 其次,目前只需了解维度分为0维和1维。,不论是哪...

2019-04-08 11:27:49 452 2

libsvm中寻优文件

libsvm中寻优文件

2018-05-02

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除