自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 激活函数--activation function 介绍一下几种激活函数的不同

激活函数--activation function 介绍一下几种激活函数的不同 1、tf.nn.relu(features, name=None) 输入:features:是一个张量Tensor,格式必须为:float32, float64, int32, int64, uint8, int16, int8当中的一种。 实质:计算整数线性,输入的特征(features)中的矩阵元素,与0进

2017-11-12 10:00:03 813

原创 卷积神经网络-细节 一些不为人知的东西

卷积神经网络--细节    CNN中那些不为人知的秘密 直接进入正题,卷积网络作为现在图像领域的开山鼻祖,那真是俩字--牛逼~~,只要是跟图像打交道的模型,那绝对是卷积卷积再卷积,横扫整个图像领域,从它的诞生就注定了它不平凡的一生,从2012年的ImageNet的一战成名,到现在的红遍大江南北,足以见得它是相当的厉害。言归正传,说说卷积的细节。 在行业(深度学习)内,有句俗语,那就是万物皆数

2017-11-11 20:14:07 2009

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除