算法
普通网友
这个作者很懒,什么都没留下…
展开
-
梯度消失和梯度爆炸以及batch normalization
梯度消失和梯度爆炸的详细讲解莫烦的视频讲解BNgithub代码地址 for i in range(N_HIDDEN): # build hidden layers and BN layers input_size = 1 if i == 0 else 10 fc = nn.Linear(inpu...原创 2020-02-14 17:27:45 · 547 阅读 · 0 评论 -
推荐系统综述
FM系列推荐模型GBDT+LR机器学习算法汇总lightLGB可以替换GBDT生成lightLGB+LR模型进行推荐FM模型:1.主要添加特征之间的交互FFM模型:1.FFM跟FM比较主要添加一个field的特征FM和FFM对比文章FFM中field也存在一个向量来表示fieldNFFM模型:NFFM模型学习链接deepFM模型:deepFM学习...原创 2020-01-09 16:09:53 · 184 阅读 · 0 评论 -
XGBoost学习
XGBoost在GBDT中的损失函数上面添加了正则化参数。http://blog.csdn.net/a819825294/article/details/51206410转载 2017-06-08 13:52:16 · 234 阅读 · 0 评论 -
PangRank算法到TextRank
http://blog.sohu.com/s/MTAzMjM1NDY0/239636012.html转载 2017-08-31 09:57:35 · 418 阅读 · 0 评论 -
python中xgboost说明文档
https://xgboost.readthedocs.io/en/latest/python/python_api.html转载 2017-09-18 10:23:23 · 626 阅读 · 0 评论 -
ababoost算法与原理
http://www.360doc.com/content/14/1109/12/20290918_423780183.shtml转载 2017-09-18 16:20:38 · 704 阅读 · 0 评论 -
xgboost学习
学习了GBDT之后,开始了解xgboost,但是觉得xgboost是一个效率增强的gbdt,鉴于本人的知识浅薄,请指正。http://blog.csdn.net/sb19931201/article/details/52557382转载 2017-06-21 17:44:52 · 357 阅读 · 0 评论 -
GBDT和XGBOOST的区别
陈天奇的xgboost在kaggle中大放异彩,下面网友讲解gbdt和xgboost的区别https://www.zhihu.com/question/41354392转载 2017-09-11 10:07:11 · 398 阅读 · 0 评论 -
Adaboost 算法的原理与推导
adaboost是集合很多弱的分类器,在进行第一次分类的时候,把分错的样本的权值增加,然后训练第二个分类器。http://blog.csdn.net/v_july_v/article/details/40718799转载 2017-09-20 13:35:47 · 211 阅读 · 0 评论 -
Python使用doc2vec和LR进行文本分类
(1)数据预处理 a.对文本数据进行贴标签处理,标签数据类似入下:平素体质:健康状况:良,既往有“高血压病史”多年。#1其中1表示患有高血压,0表示没有患有高血压。 然后进行分开,文本存储在一个文件,标签存储在一个文件,文本内容和标签行对行对应。 b.对文本文件的内容进行分词。import jieba#读取数据生成sentencesfile=open(u'/home/ubuntu/file/原创 2017-09-01 17:42:18 · 4873 阅读 · 3 评论 -
gensim中doc2vec调参
在文本分类中,需要把文本转换成向量。官方文档https://radimrehurek.com/gensim/models/doc2vec.htmldoc2vec算法是基于word2vec算法。model = Doc2Vec(documents, size=100, window=8, min_count=5, workers=4)documents是训练文档,训练文档必须是一行一个文本,并且进行过分原创 2017-09-07 14:05:27 · 5866 阅读 · 6 评论 -
HMM三大问题之评估问题解决方法前向问题
http://www.cnblogs.com/sjjsxl/p/6285629.html转载 2017-08-29 17:53:03 · 1187 阅读 · 0 评论 -
Jaccard系数学习
jaccard系数在文本查重与文本去重和文本聚类方面有很大的作用。http://baike.baidu.com/link?url=5W_WgutNIlLZ58uc2T5QAhtW-HOhAg2uW5QqSUmOdo3IWd1eSINmfHg0oeD3FODKKpc3k-0gufUUkQCfNcpokrOT8E9Jd1HetvjPoYr6l_LRKVz1E4qP4-8zVAeLkX0A转载 2017-06-12 10:30:51 · 1570 阅读 · 0 评论 -
EM算法学习
学习网页http://blog.csdn.net/zouxy09/article/details/8537620/转载 2017-06-06 11:05:03 · 279 阅读 · 0 评论 -
LR与SVM的比较
在学习了很多的分类算法之后,脑中可能会出现一些疑问。这些分类算法都有什么区别,在这里详细讲解了LR与SVM的区别,为什么选择比较LR和SVM呢?因为它们确实有很多的共同之处。http://www.cnblogs.com/zhizhan/p/5038747.html转载 2017-06-14 09:55:49 · 554 阅读 · 0 评论 -
防止过拟合的几种范数的介绍
数据挖掘工程师一直是在跟过拟合进行抗争,由此产生了防止过拟合的几种范数,下面进行详细介绍http://blog.csdn.net/shijing_0214/article/details/51757564转载 2017-06-14 10:08:36 · 527 阅读 · 0 评论 -
卡方检验以及P值的计算
在判断使用某一个项目对患者的费用的影响的时候,我们可以按照是否使用某个项目对患者进行分开,使用卡方检验就可以计算出来两组患者的费用差异情况。https://segmentfault.com/a/1190000003719712转载 2017-06-28 15:46:41 · 40761 阅读 · 0 评论 -
stanford ner训练自己的模型
在很多情况下我们需要stanford ner训练自己的模型https://nlp.stanford.edu/software/crf-faq.shtml#a转载 2017-08-10 11:04:41 · 1364 阅读 · 0 评论 -
哈工大LTP初步学习
在学习哈工大的LTP的在线演示平台http://www.ltp-cloud.com/demo/依存句法分析与语义依存分析的区别http://www.cnblogs.com/CheeseZH/p/5768389.html句法分析树的生成http://blog.csdn.net/jiangjingxuan/article/details/54729440哈工大LTP的本地安装和python调用http:转载 2017-07-26 11:13:13 · 1396 阅读 · 0 评论 -
句法分析算法PCFG学习
在做自然语言处理的时候,我们要用到句法结构分析。找到词与词之间的关系并且分析语义。http://blog.csdn.net/mingspy/article/details/8843964转载 2017-07-27 14:59:59 · 2955 阅读 · 1 评论 -
ubuntu安装CRF++
http://blog.csdn.net/zhongkeli/article/details/12677665亲测有效。转载 2017-10-10 21:46:10 · 353 阅读 · 0 评论 -
CRF++工具遇到的问题
1.训练数据一定要定义成utf-8格式,然后生成的model在测试数据为utf-8的情况下会出现错误。 2.训练数据中不能有空字符,如果有空字符,CRF++的命令行就会出现错误。 3.读写文件的时候一定要定义好是utf-8格式。 4.在命令行显示中文字符的时候,一定要进行chch65001更改编码格式为utf-8。原创 2017-10-12 11:29:35 · 2254 阅读 · 2 评论 -
LDA算法学习
LDA数学八卦是一个非常好的LDA学习文档LDA数学八卦转载 2018-01-08 15:44:12 · 527 阅读 · 0 评论 -
BERT和XLNET的对比
学习链接对比方面:1.BERT会使用mask的Word的vector和position而xlnet在训练的时候不使用mask的Word的vector和position2.XLNET使用多种因式分解进行预测。这张图表示什么意思?QUERY和KEY,VALUE表示什么?3.对每层的注意力进行掩码。4.由于不知道预测词的位置,所以需要另外一个模型来预测预测值的位置...原创 2019-10-09 19:45:23 · 516 阅读 · 0 评论 -
gan理论学习
理论学习链接gan的原理详解gan是让生成模型尽可能生成最近似的图像,让判别模型对生成图片和原始图片的判别准确率比较高,所以损失函数定义为...转载 2019-07-14 15:59:27 · 162 阅读 · 0 评论 -
textcnn实战代码
代码详解self.embedded_chars_expanded = tf.expand_dims(self.embedded_chars, -1)因为卷积层参数是filter_shape = [filter_size, embedding_size, 1, num_filters] W = tf.Variable(tf.truncated_norm...转载 2019-06-24 20:14:19 · 747 阅读 · 0 评论 -
强化学习小结
强化学习如何进行学习: 通过对行为进行打分来进行学习reward强化学习和有监督学习分区别: 有监督学习必须事先准备数据和对应的标签。 强化学习是通过在行为中进行学习而没有事先准备数据。强化学习中的三类算法: 1.通过价值选择行为的算法(Q-learing,sarsa,dqn)。 2.直接选行为(policy gradient)。 ...原创 2019-06-16 18:36:28 · 236 阅读 · 0 评论 -
transformer理论和代码初步学习
理论学习链接transformer代码Q = tf.layers.dense(queries, d_model, use_bias=False) # (N, T_q, d_model) K = tf.layers.dense(keys, d_model, use_bias=False) # (N, T_k, d_model) V = tf.layers.d...转载 2019-05-21 12:33:20 · 230 阅读 · 0 评论 -
ELMO算法学习
ELMO的简单讲解ELMO原始论文ELMO中文实战git代码位置ELMO论文中文翻译ELMO的目标函数中文实战代码修改ELmo的下游任务怎么使用预训练模式ELMO的工具包初始化随机词向量的方法:使用预训练好的word2vec或者glove作为初始的随机词向量transformer详细讲解...转载 2019-04-01 14:33:47 · 748 阅读 · 0 评论 -
贝叶斯网学习
贝叶斯网基础学习链接(见周志华西瓜书)贝叶斯网例子深入了解贝叶斯网例子贝叶斯网结构化构建的综述贝叶斯网推理模式转载 2018-09-06 17:07:58 · 521 阅读 · 0 评论 -
PCA深入剖析学习
PCA主成分分析是一个很好的降维的方法,深入剖析PCA在机器学习工程至关重要。PCA学习转载 2018-06-29 09:34:53 · 427 阅读 · 0 评论 -
CNN中池化层的推导
转载 2018-07-16 15:47:00 · 534 阅读 · 0 评论 -
lstm算法学习
深度学习算法链接RNN的学习推导链接lstm和rnn的计算公式如下:转载 2018-07-16 15:01:49 · 537 阅读 · 0 评论 -
数据归一化
数据归一化学习链接最大最小归一化和Z-score归一化。最大最小归一化是线性变化,类似支持向量机的线性核,而z-score是高斯归一化,类似支持向量机的高斯核。最大最小归一化如果出现新的最小最大值需要重新进行归一化。...转载 2018-07-16 14:12:17 · 609 阅读 · 0 评论 -
SVR支持向量回归机的原理
SVR和SVM在损失函数方面有很大的区别,使用支持向量机做分类效果要好于使用SVR做回归之后然后再做分类。SVR和SVM对比学习链接转载 2018-07-03 13:46:56 · 16936 阅读 · 0 评论 -
关键词提取算法学习
下面链接是几种关键词提取算法textrank,TFIDF,LDA,PLSA,TRP关键词提取算法转载 2018-06-27 09:52:34 · 527 阅读 · 0 评论 -
不平衡数据的机器学习
方法连接转载 2018-05-31 16:18:46 · 185 阅读 · 0 评论 -
支持向量机学习
支持向量机学习资料:李航的统计学习方法支持向量机学习博客一支持向量机学习博客二转载 2018-05-21 15:10:57 · 290 阅读 · 0 评论 -
算法之贝叶斯平均
热词计算链接在看了热词计算之后,热词跟词频和词频改变量有关。博主的计算方法是贝叶斯平均,贝叶斯平均在电影评分中也有很大的作用。电影评分...转载 2018-03-20 17:20:53 · 7331 阅读 · 1 评论 -
梯度下降法,随机梯度下降法和随机梯度下降法
梯度下降法在深度学习方面有很大的作用,但是不同情况下产生了不同的梯度下降法。转载 2018-01-09 11:57:23 · 502 阅读 · 0 评论