自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

翻译 sigmod()和ReLu()

为什么引入非线性激励函数?因为无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当。

2017-09-27 22:16:39 469

翻译 Inception V3

再一次总结卷积神经网络(局部连接、权值共享、池化层降采样),应付面试。 V1 全局平均池化层:取代Alexnet的全连接层,降低90%的参数量。V2 使用两个3*3的卷积获得一个5*5卷积的效果,不仅减少了参数量,而且增加了一层非线性变换(这点很重要),使得CNN对特征的学习能力更强(这一句并不想写的) batch normalization(批量化),对数据进行标准化处理,使输

2017-09-27 21:48:48 249

转载 逻辑斯蒂回归和SVM的区别有哪些?

1、二者的优化目标不同,损失函数不同 2、二者的输出不同,LR给出的是分类结果的置信度 3、决定SVM的只有支持向量,而LR用到了所有样本

2017-09-23 22:44:01 583

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除