自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

永远飞翔的鸟

专注于人工智能和大数据,以永恒之心,书写技术之美

  • 博客(10)
  • 资源 (6)
  • 收藏
  • 关注

原创 深度学习之常见损失函数

目录一、LogLoss对数损失函数(逻辑回归,交叉熵损失)二、平方损失函数(最小二乘法, Ordinary Least Squares )三、指数损失函数(Adaboost)四、Hinge损失函数(SVM)五、其它损失函数六、Keras / TensorFlow 中常用 Cost Function 总结七、tf.losses 模块一、LogLoss对数损失函数......

2018-07-25 19:00:53 4186

原创 文本相似度实战(kaggle)

Kaggle:Quora Question Pairs:https://blog.csdn.net/sinat_33741547/article/details/80655906Quora Question Pairs 竞赛冠军经验分享:采用 4 层堆叠,经典模型比较给力 :https://www.sohu.com/a/223771528_114877https://www.kaggle....

2018-07-23 14:43:41 1082

原创 机器学习之从gbdt到xgboost

一、GBDT 1.GBDT相关原理详细讲解1.GBDT算法原理以及实例理解https://blog.csdn.net/zpalyq110/article/details/79527653(必看)Github:https://github.com/Freemanzxp/GBDT_Simple_Tutorial2.机器学习 【 GBDT算法】 实例推导计算+详细过程 (入门必...

2018-07-21 16:47:40 749

转载 Elasticsearch全文搜索与TF/IDF

转载:https://my.oschina.net/stanleysun/blog/1594220一、TF/IDF1. TFTF:Term Frequency,即词频。它表示一个词在内容(如某文章)中出现的次数。为了消除文档本身大小的影响,通常,它的定义是:TF = 某个词在文档中出现的次数 / 文档的总词数也有其他表示方法,在Elasticsearch (lucene)中...

2018-07-19 21:54:48 1081

原创 RF、GBDT、XGBoost面试级整理

  RF、GBDT和XGBoost都属于集成学习(Ensemble Learning),集成学习的目的是通过结合多个基学习器的预测结果来改善单个学习器的泛化能力和鲁棒性。  根据个体学习器的生成方式,目前的集成学习方法大致分为两大类:即个体学习器之间存在强依赖关系、必须串行生成的序列化方法,以及个体学习器间不存在强依赖关系、可同时生成的并行化方法;前者的代表就是Boosting,后者的代表是B...

2018-07-12 20:41:22 672

原创 机器学习常见面试题

1、L1范式和L2方式的区别(1)L1范式是对应参数向量绝对值之和(2)L1范式具有稀疏性(3)L1范式可以用来作为特征选择,并且可解释性较强(这里的原理是在实际Loss function中都需要求最小值,根据L1的定义可知L1最小值只有0,故可以通过这种方式来进行特征选择)(4)L2范式是对应参数向量的平方和,再求平方根(5)L2范式是为了防止机器学习的过拟合,提升模型的泛化...

2018-07-11 19:01:04 423 1

原创 keras之多输入多输出(多任务)模型

keras多输入多输出模型,以keras官网的demo为例,分析keras多输入多输出的适用。主要输入(main_input): 新闻标题本身,即一系列词语。辅助输入(aux_input): 接受额外的数据,例如新闻标题的发布时间等。该模型将通过两个损失函数进行监督学习。较早地在模型中使用主损失函数,是深度学习模型的一个良好正则方法。完整过程图示如下:其中,红圈中的操作为将辅助数据...

2018-07-10 16:41:06 3158 1

原创 深度学习课程集合

1.手推公示,对原理讲解的非常透彻https://space.bilibili.com/97068901机器学习 https://github.com/shuhuai007/Machine-Learning-Session2. 贪心学院NLP课程笔记https://blog.csdn.net/weixin_41250910/category_9228045.html3.机器学习...

2018-07-09 14:00:06 739

原创 深度学习之批归一化Batch Normalization的原理和应用

目录一、BN提出的背景意义二、卷积神经网络(CNN)优化之BN使用其他笔记一、BN提出的背景意义本文的背景文献是:《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》,Batch Normalization算法目前已经被大量的应用,最新的文献算...

2018-07-08 22:02:41 9415 2

原创 Keras框架简介和使用流程

目录一、 Keras框架简介1. Models包:keras.models2. Layers包:keras.layers3. Initializations包:keras.initializations4. Activations包:keras.activations、keras.layers.advanced_activations(新激活函数)5. Objecti...

2018-07-04 17:10:23 1399

FTRL_FM_LR.html

使用FM和LR分别进行了FTRL优化,包含详细的调试步骤

2020-03-06

alphaFM-master.zip

FM_FTRL实现

2020-03-05

OnlineLearning_BasicAlgorithm-master.zip

在线学习优化方法SGD-OGD-FOBOS-RDA-FTRL-FTML 总结

2020-03-05

train_mnist.zip

采用dcoker搭建tensorflow_sever对外服务。代码采用minist数据集,训练了模型,并保存为PB文件,然后使用docker容器搭建了tensorflow_sever,并进行了测试。

2020-02-26

minist_tensorflow_pb_train_predict.zip

tensorflow训练手写数字识别模型,保存为pb文件,并采用pb文件进行预测。 tensorflow训练手写数字识别模型,保存为pb文件,并采用pb文件进行预测。 tensorflow训练手写数字识别模型,保存为pb文件,并采用pb文件进行预测。 tensorflow训练手写数字识别模型,保存为pb文件,并采用pb文件进行预测。 tensorflow训练手写数字识别模型,保存为pb文件,并采用pb文件进行预测。

2020-02-22

Word2Vec中的数学原理详解.pdf

从数学角度详细讲解word2vec模型的原理,目录如下:(一)目录和前言(二)预备知识(三)背景知识(四)基于 Hierarchical Softmax 的模型(五)基于 Negative Sampling 的模型(六)若干源码细节

2020-02-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除