- 博客(10)
- 资源 (6)
- 收藏
- 关注
原创 深度学习之常见损失函数
目录一、LogLoss对数损失函数(逻辑回归,交叉熵损失)二、平方损失函数(最小二乘法, Ordinary Least Squares )三、指数损失函数(Adaboost)四、Hinge损失函数(SVM)五、其它损失函数六、Keras / TensorFlow 中常用 Cost Function 总结七、tf.losses 模块一、LogLoss对数损失函数......
2018-07-25 19:00:53 4186
原创 文本相似度实战(kaggle)
Kaggle:Quora Question Pairs:https://blog.csdn.net/sinat_33741547/article/details/80655906Quora Question Pairs 竞赛冠军经验分享:采用 4 层堆叠,经典模型比较给力 :https://www.sohu.com/a/223771528_114877https://www.kaggle....
2018-07-23 14:43:41 1082
原创 机器学习之从gbdt到xgboost
一、GBDT 1.GBDT相关原理详细讲解1.GBDT算法原理以及实例理解https://blog.csdn.net/zpalyq110/article/details/79527653(必看)Github:https://github.com/Freemanzxp/GBDT_Simple_Tutorial2.机器学习 【 GBDT算法】 实例推导计算+详细过程 (入门必...
2018-07-21 16:47:40 749
转载 Elasticsearch全文搜索与TF/IDF
转载:https://my.oschina.net/stanleysun/blog/1594220一、TF/IDF1. TFTF:Term Frequency,即词频。它表示一个词在内容(如某文章)中出现的次数。为了消除文档本身大小的影响,通常,它的定义是:TF = 某个词在文档中出现的次数 / 文档的总词数也有其他表示方法,在Elasticsearch (lucene)中...
2018-07-19 21:54:48 1081
原创 RF、GBDT、XGBoost面试级整理
RF、GBDT和XGBoost都属于集成学习(Ensemble Learning),集成学习的目的是通过结合多个基学习器的预测结果来改善单个学习器的泛化能力和鲁棒性。 根据个体学习器的生成方式,目前的集成学习方法大致分为两大类:即个体学习器之间存在强依赖关系、必须串行生成的序列化方法,以及个体学习器间不存在强依赖关系、可同时生成的并行化方法;前者的代表就是Boosting,后者的代表是B...
2018-07-12 20:41:22 672
原创 机器学习常见面试题
1、L1范式和L2方式的区别(1)L1范式是对应参数向量绝对值之和(2)L1范式具有稀疏性(3)L1范式可以用来作为特征选择,并且可解释性较强(这里的原理是在实际Loss function中都需要求最小值,根据L1的定义可知L1最小值只有0,故可以通过这种方式来进行特征选择)(4)L2范式是对应参数向量的平方和,再求平方根(5)L2范式是为了防止机器学习的过拟合,提升模型的泛化...
2018-07-11 19:01:04 423 1
原创 keras之多输入多输出(多任务)模型
keras多输入多输出模型,以keras官网的demo为例,分析keras多输入多输出的适用。主要输入(main_input): 新闻标题本身,即一系列词语。辅助输入(aux_input): 接受额外的数据,例如新闻标题的发布时间等。该模型将通过两个损失函数进行监督学习。较早地在模型中使用主损失函数,是深度学习模型的一个良好正则方法。完整过程图示如下:其中,红圈中的操作为将辅助数据...
2018-07-10 16:41:06 3158 1
原创 深度学习课程集合
1.手推公示,对原理讲解的非常透彻https://space.bilibili.com/97068901机器学习 https://github.com/shuhuai007/Machine-Learning-Session2. 贪心学院NLP课程笔记https://blog.csdn.net/weixin_41250910/category_9228045.html3.机器学习...
2018-07-09 14:00:06 739
原创 深度学习之批归一化Batch Normalization的原理和应用
目录一、BN提出的背景意义二、卷积神经网络(CNN)优化之BN使用其他笔记一、BN提出的背景意义本文的背景文献是:《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》,Batch Normalization算法目前已经被大量的应用,最新的文献算...
2018-07-08 22:02:41 9415 2
原创 Keras框架简介和使用流程
目录一、 Keras框架简介1. Models包:keras.models2. Layers包:keras.layers3. Initializations包:keras.initializations4. Activations包:keras.activations、keras.layers.advanced_activations(新激活函数)5. Objecti...
2018-07-04 17:10:23 1399
train_mnist.zip
2020-02-26
minist_tensorflow_pb_train_predict.zip
2020-02-22
Word2Vec中的数学原理详解.pdf
2020-02-12
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人