面试常见问题
暴躁的猴子
比你优秀的人比你更努力!
展开
-
生成式和判别式
判别式模型(Discriminative Model):直接对条件概率p(y|x)进行建模,常见判别模型有:线性回归、决策树、支持向量机SVM、k近邻、LDA,CRF,神经网络等;生成式模型(Generative Model):对联合分布概率p(x,y)进行建模,常见生成式模型有:隐马尔可夫模型HMM、朴素贝叶斯模型、高斯混合模型GMM等;生成式模型更普适;判别式模型更直接,目标...转载 2019-02-14 17:53:12 · 1781 阅读 · 0 评论 -
文本分类网络TextCNN,TextRNN介绍
https://blog.csdn.net/u012762419/article/details/79561441https://blog.csdn.net/Torero_lch/article/details/82588732转载 2019-04-08 15:03:06 · 705 阅读 · 0 评论 -
机器学习:各种优化器Optimizer的总结与比较
https://blog.csdn.net/weixin_40170902/article/details/80092628转载 2019-04-08 23:51:02 · 551 阅读 · 0 评论 -
从未知大小的n个数中取m个数,使各数被取出的概率相等
转:https://blog.csdn.net/wang11chao01/article/details/8130793https://blog.csdn.net/u200814499/article/details/39644543首先,这个问题来自于一道面试题。原题目的场景大体是这样的:服务器每天会收到数以亿计的请求,但是目前服务器端不希望保存所有的请求,只想随机保存这些请求中的m...转载 2019-04-16 22:28:54 · 1300 阅读 · 0 评论 -
Dropout理解
https://blog.csdn.net/stdcoutzyx/article/details/49022443转载 2019-04-18 22:44:19 · 194 阅读 · 0 评论 -
HashSet,LinkedHashSet,TreeSet的区别
转自:https://www.cnblogs.com/Terry-greener/archive/2011/12/02/2271707.htmlSet接口Set不允许包含相同的元素,如果试图把两个相同元素加入同一个集合中,add方法返回false。Set判断两个对象相同不是使用==运算符,而是根据equals方法。也就是说,只要两个对象用equals方法比较返回true,Set就不 会接受...转载 2019-04-18 23:39:51 · 79 阅读 · 0 评论 -
十道海量数据处理面试题与十个方法大总结
第一部分、十道海量数据处理面试题1、海量日志数据,提取出某日访问百度次数最多的那个IP。首先是这一天,并且是访问百度的日志中的IP取出来,逐个写入到一个大文件中。注意到IP是32位的,最多有个2^32个IP。同样可以采用映射的方法,比如模1000,把整个大文件映射为1000个小文件,再找出每个小文中出现频率最大的IP(可以采用hash_map进行频率统计,然后再找出频率最大的几...转载 2019-04-19 00:24:45 · 187 阅读 · 0 评论 -
HMM,CRF区别
条件随机场(CRF)和隐马尔科夫模型(HMM)最大区别在哪里?CRF的全局最优体现在哪里? - Scofield的回答 - 知乎 https://www.zhihu.com/question/53458773/answer/306485500...转载 2019-04-19 11:00:01 · 3402 阅读 · 0 评论 -
维特比算法实现的几个例子
实现1:有观测序列,发射概率,状态转移矩阵返回最佳路径# --*--coding:utf-8--*--import numpy as np# 隐状态hidden_state=['sunny','rainy']# 观测序列observation=['walk','shop','clean']#根据观测序列,发射概率,状态转移矩阵返回最佳路径def viterbi(obs,stat...原创 2019-04-19 11:29:43 · 917 阅读 · 0 评论 -
word2vec、glove和 fasttext 的比较
https://blog.csdn.net/sun_brother/article/details/80327070转载 2019-04-19 11:47:02 · 391 阅读 · 0 评论 -
NLP 中的迁移学习
迁移学习NLP:BERT、ELMo等直观图解 - 阿里云云栖社区的文章 - 知乎https://zhuanlan.zhihu.com/p/52282552转载 2019-04-19 18:54:36 · 555 阅读 · 0 评论 -
CNN中各层的作用
卷积层:用它来进行特征提取池化层:对输入的特征图进行压缩,一方面使特征图变小,简化网络计算复杂度;一方面进行特征压缩,提取主要特征,激活函数:是用来加入非线性因素的,因为线性模型的表达能力不够。全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。...原创 2019-04-20 16:41:47 · 3758 阅读 · 1 评论 -
BERT模型详解
http://fancyerii.github.io/2019/03/09/bert-theory/转载 2019-04-24 22:55:11 · 754 阅读 · 0 评论 -
【Reverse】Tensorflow中屏蔽Padding处理变长序列的双向LSTM
转自:https://blog.csdn.net/okcd00/article/details/80010193通常我们处理双向LSTM的时候,序列长短不一参差不齐,就不可避免的需要进行padding,实际上句子长度可能如下所示,为[2, 4, 5],就需要被padding成这样才能作为矩阵传入计算:array([[1, 2, 0, 0, 0], [2, 1, 4, 3...转载 2019-04-25 10:09:02 · 852 阅读 · 0 评论 -
Kmeans算法详解
1.https://blog.csdn.net/taoyanqi8932/article/details/53727841转载 2019-06-03 23:58:29 · 1091 阅读 · 0 评论 -
常见的激活函数及神经网络初始化方式
https://doraemonzzz.com/2019/02/02/CS231%20%E7%AC%AC%E5%85%AD%E8%AE%B2%20%E8%AE%AD%E7%BB%83%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%EF%BC%88%E4%B8%8A%EF%BC%89/转载 2019-06-03 23:58:57 · 512 阅读 · 0 评论 -
反向传播推导
https://blog.csdn.net/hertzcat/article/details/79966836转载 2019-07-19 11:11:17 · 280 阅读 · 0 评论 -
分类问题为什么用交叉熵做损失函数
转:https://blog.csdn.net/huwenxing0801/article/details/82791879转载 2019-03-29 11:11:33 · 4280 阅读 · 0 评论 -
tfidf进行关键词提取
转:https://blog.csdn.net/lo_single/article/details/76039748tf-idf简介在信息提取的应用场景之中,我们往往需要一些文本中的重要的词而不是文本中的所有词语来进行分析,即使原文本已经进行了去停用词的处理。那么什么样的词算是文本中的关键词呢?一方面,这个词应该在文本中出现的次数比较多;另一方面,这个词应该不那么常见,若是这个词在很多文...转载 2019-03-29 11:03:17 · 13556 阅读 · 0 评论 -
分类问题中的交叉熵损失和均方损失
转自:https://blog.csdn.net/zhufenghao/article/details/52735750转载 2019-03-28 22:52:38 · 379 阅读 · 0 评论 -
LR和SVM、线性回归的联系与区别
LR和SVM的联系:都是监督的分类算法都是线性分类方法 (不考虑核函数时)都是判别模型 判别模型和生成模型是两个相对应的模型。 判别模型是直接生成一个表示或者的判别函数(或预测模型) 生成模型是先计算联合概率分布然后通过贝叶斯公式转化为条件概率。 SVM和LR,KNN,决策树都是判别模型,而朴素贝叶斯,隐马尔可夫模型是生成模型。 LR和SVM的不同1、损失函数的不同LR是...转载 2019-02-14 20:22:42 · 418 阅读 · 0 评论 -
L1,L2范数的区别和适用场景
1.https://www.jianshu.com/p/4bad38fe07e62.https://blog.csdn.net/jinping_shi/article/details/52433975转载 2019-02-14 21:01:48 · 4033 阅读 · 0 评论 -
SVM面试常考问题
转自:https://blog.csdn.net/szlcw1/article/details/52259668http://www.360doc.com/content/18/0905/17/17157244_784140267.shtmlhttps://www.jianshu.com/p/f86de852ee96转载 2019-02-27 15:07:31 · 382 阅读 · 0 评论 -
机器学习中偏差和方差的区别
今天在看L1和L2正则的相关知识时,看到这样一段话:L2与L1的区别在于,L1正则是拉普拉斯先验,而L2正则则是高斯先验。它们都是服从均值为0,协方差为1λ。当λ=0时,即没有先验)没有正则项,则相当于先验分布具有无穷大的协方差,那么这个先验约束则会非常弱,模型为了拟合所有的训练集数据, 参数w可以变得任意大从而使得模型不稳定,即方差大而偏差小。λ越大,标明先验分布协方差越小,...转载 2019-02-28 11:36:02 · 506 阅读 · 0 评论 -
交叉验证
在机器学习里,通常来说我们不能将全部用于数据训练模型,否则我们将没有数据集对该模型进行验证,从而评估我们的模型的预测效果。为了解决这一问题,有如下常用的方法:1.The Validation Set Approach第一种是最简单的,也是很容易就想到的。我们可以把整个数据集分成两部分,一部分用于训练,一部分用于验证,这也就是我们经常提到的训练集(training set)和测试集(test...转载 2019-02-28 14:46:20 · 650 阅读 · 0 评论 -
机器学习面试题
转自:https://blog.csdn.net/v_JULY_v/article/details/78121924转载 2019-02-24 18:02:45 · 167 阅读 · 0 评论 -
LR推导及其与SVM的区别
之前整理过一篇关于逻辑回归的帖子,但是只是简单介绍了一下了LR的基本思想,面试的时候基本用不上,那么这篇帖子就深入理解一下LR的一些知识,希望能够对面试有一定的帮助。1、逻辑斯谛分布介绍逻辑斯谛回归模型之前,首先看一个并不常见的概率分布,即逻辑斯谛分布。设X是连续随机变量,X服从逻辑斯谛分布是指X具有如下的累积分布函数和概率密度函数:式中,μ为位置参数,γ>0为形状参数。逻辑...转载 2019-03-02 12:17:06 · 285 阅读 · 0 评论 -
逻辑回归原理及其推导
转自:https://blog.csdn.net/nageaixiaodenanhai/article/details/81592713逻辑回归原理逻辑回归是利用回归类似的方法来解决分类问题。假设有一个二分类问题,输出y{0,1},而线性模型(下文将展示这个模型)的的预测值z是实数值,我们希望找到一个阶跃函数将实数z映射为{0,1},这样我们就能很好的处理分类问题了。那么逻辑回归中是使用什么...转载 2019-03-02 16:49:55 · 1962 阅读 · 0 评论 -
机器学习面试题总结
https://blog.csdn.net/weixin_42073654/article/details/83063551https://blog.csdn.net/qq_17109251/article/details/82793769https://blog.csdn.net/woaidapaopao/article/details/77806273转载 2019-03-07 10:42:53 · 146 阅读 · 0 评论 -
GRU
https://blog.csdn.net/wangyangzhizhou/article/details/77332582转载 2019-03-26 17:31:29 · 740 阅读 · 0 评论 -
文本分类的常见模型
https://www.cnblogs.com/DjangoBlog/p/7511979.html转载 2019-04-05 22:58:05 · 4328 阅读 · 0 评论 -
Xgboost中对于二分类和多分类的Gradient和Hessian的求法
转:https://blog.csdn.net/yc1203968305/article/details/78321393转载 2019-03-28 10:03:44 · 925 阅读 · 0 评论 -
LR(Logistic Regression) & XGBOOST 调参
转:https://blog.csdn.net/Jerr__y/article/details/78924485在 CRT 中,最大的两个问题就是:- 数据不均衡。在投放的大量广告中真正转化的样本数量很少。- 数据稀疏。每个样本的特征信息都不太全。LR 和 XGOOST 是 CTR 中常用的两种模型,二者各有优缺点,在 facebook 中使用 XGBOOST(提取特征) + LR...转载 2019-03-28 10:08:25 · 1934 阅读 · 0 评论 -
LR,SVM,GBDT,Xgboost的比较
转:https://www.cnblogs.com/x739400043/p/10098659.html转载 2019-03-28 10:09:40 · 6255 阅读 · 0 评论 -
常见Linux命令
转自:https://www.cnblogs.com/caozy/p/9261224.html学前理论 linux主要特征:一切且文件(目录、硬盘等都是文件);硬件都在/dev 目录,如硬盘、U盘为/dev/sd[a-d]; /dev/sr0(/dev/cdrom)是光驱的设备名(df命令查看),为设备文件,代表的是光驱本身,得把这个设备挂载到目录下(一般为/mnt)(文件系统的临时挂...转载 2019-03-28 11:22:59 · 364 阅读 · 0 评论 -
朴素贝叶斯和逻辑回归的区别
(1) Naive Bayes是一个生成模型,在计算P(y|x)之前,先要从训练数据中计算P(x|y)和P(y)的概率,从而利用贝叶斯公式计算P(y|x)。Logistic Regression是一个判别模型,它通过在训练数据集上最大化判别函数P(y|x)学习得到,不需要知道P(x|y)和P(y)。(2) Naive Bayes是建立在条件独立假设基础之...转载 2019-03-28 22:08:38 · 996 阅读 · 0 评论 -
word2vec中的CBOW模型
https://blog.csdn.net/u012762419/article/details/79366052转载 2019-07-31 09:42:30 · 272 阅读 · 0 评论