- 博客(2)
- 资源 (1)
- 收藏
- 关注
原创 神经网络的一些碎片知识
Hourglass网络(堆叠沙漏网络),首先进行卷积池化处理,并进行多次下采样操作,获得一些分辨率较低的特征,从而降低计算的复杂度,为了使图像特征的分辨率上升,紧接着多次上采样。上采样使得图像的分辨率增高,同时更有能力预测物体的准确位置。使用residual模块提取较高层次的特征,同时保持原有层次的信息,那么为什么上采样和下采样到同一种大小的特征图进行组合的时候,可以得到理想的效果呢?首...
2019-04-21 11:26:03 247
原创 神经网络训练那些事——激活函数 损失函数 梯度下降 退化学习率
再神经网络里面常见的激活函数主要有三种:tanh,sigmoid,relu激活函数sigmoid是常见的非线性激活函数y的范围是0-1,在TensorFlow中的对应的是tf.nn.sigmoid(x,name-None)tanh函数非线性激活函数,y的值是-1-1,TensorFlow对应的是tf.nn.tanh(x,name=None)Relu函数f(x)=max(0...
2019-04-18 15:47:43 1393
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人