- 博客(6)
- 资源 (10)
- 收藏
- 关注
原创 GDBT--理解梯度提升原理篇
以决策树为基函数的提升方法称为提升树,提升树的模型可以表示为决策树的加法模型,基函数一般是cart回归树,GDBT是属于boosting的一员,与之对应的还有bagging,对于bagging中代表算法有随机森林,boosting中代表的有adaboost、xgboost等,目前数据挖掘用的比较多的还是boosting。本文目的是介绍学习boosting家族中的GDBT,所有对于bagging与b...
2018-05-30 10:06:11 5357 1
原创 还在用原生Tensorflow吗?试试TF-Slim吧
TF-Slim是tensorflow中用来定义、训练与评估的轻量级库,tf-slim的组件与tf.contrib.learn相似能够将你从复杂的原生tensorflow解放出来。你需要导入import tensorflow.contrib.slim as slim为什么要用TF-Slim?tf-slim能够将搭建、训练、评估神经网络变的简单:通过使用参数域(argument scoping)与更多...
2018-05-23 13:58:28 2220
原创 浅析深度ResNet有效的原理
深度残差网络是ImageNet比赛中,效果最好的网络,在深度学习的探究过程中,发现对深度的扩展远远比广度的扩展效果要达到的好的太多。理论认为,同层的不同神经元学习不同的特征,越往后层的神经元学习特征的抽象程度越高。可以这样理解,如果要识别一个汽车如下图:上面的图我画的有些粗糙,但是意思应该表达清楚了,特征的组合识别一个物体,如果特征越抽象则识别物体更加简单,也就是说网络模型越深越好了?那么在搭建一...
2018-05-24 17:49:26 8087 3
原创 利用VGG-16做迁移学习
本文以实战为主,主要介绍基于tensorflow搭建vgg-16网络,vgg设计思想原理,在此不做多余的赘述。 vgg-16的结构单独封装到一个vgg16_structure.py文件里面,以[weights,biases]的结构封装structure = { # convolution layer 1 'conv1_1': [[3, 3, 3, 64], [64]], ...
2018-05-18 17:20:13 17157 1
原创 最大熵模型教你如何撩妹
都说女人是善变的,做的每个决定都让我们男性同胞找不到任何根据,于是就有了女人的心思你别猜。但是很多时候我们需要知道她们在想什么,知己知彼才能百战不殆,少一点争吵,少一些矛盾,少一些猜疑。于是这个维护世界和平,共同创造和谐社会的责任就让我来承担一些吧!相信很多男同胞都会遇到这个问题:约女孩出来吃饭;这个问题看似简单,其实不然,吃饭要吃出水平,而且要结合女孩的心思,否则很容易让女孩觉得你不解风情,根本...
2018-05-06 16:59:14 340
原创 为什么交叉熵损失函数值越小分类效果越好?
在学习机器学习过程中,我们经常会用到损失函数来判断模型是否在学习,经常使用的损失函数大多是平方损失函数,与交叉熵损失函数。平方损失函数,我们很容易理解为什么值越小分类效果越好。Loss(w)=1m∑im(yi−yhati)2Loss(w)=1m∑im(yi−yihat)2Loss(w)=\frac{1}{m}\sum_{i}^{m}(y_i-y^{hat}_i)^2 很显然,如果预测的越接近,则...
2018-05-03 19:31:57 19233
myeclipse-2016 CI key 破解 测试可用
2016-07-10
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人