自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

转载 CNN和RNN

CNN:1)卷积:对图像元素的矩阵变换,是提取图像特征的方法,多种卷积核可以提取多种特征。一个卷积核覆盖的原始图像的范围叫做感受野(权值共享)。一次卷积运算(哪怕是多个卷积核)提取的特征往往是局部的,难以提取出比较全局的特征,因此需要在一层卷积基础上继续做卷积计算,这也就是多层卷积。 2)池化:降维的方法,按照卷积计算得出的特征向量维度大的惊人,不但会带来非常大的计算量,而且容易出现过拟合,...

2018-08-28 16:50:09 406

转载 一天搞懂深度学习--导论

”《1天搞懂深度学习》,300多页的ppt,台湾李宏毅教授写的,非常棒。不夸张地说,是我看过最系统,也最通俗易懂的,关于深度学习的文章。“废话少说,先上干货,整个PPT的思维导图如下:深度学习概论介绍深度学习作者非常浅显的指出机器(深度)学习过程非常简单,分为定义方法、判断方法的优劣、挑选出最佳的方法。对于深度学习,首先第一步定义方法 - 神经网络。深度学习顾名思义...

2018-08-28 11:36:24 362

翻译 【总结】explaining and harnessing adversarial examples

Related workSzegedy et al.2014b《》:box-constrained L-BFGS 能可靠地找到对抗样本 在ImageNet等数据集上,对抗样本和原始样本的差距很小,人眼不可见同样的对抗样本会被不同结构的分类器误判shallow softmax regression 同样对对抗样本很脆弱training on adversarial examples...

2018-07-19 14:06:14 515

转载 终端相关

1、从服务器上下载文件 scp username@servername:/path/filename /var/www/local_dir(本地目录)例如scp root@192.168.0.101:/var/www/test.txt 把192.168.0.101上的/var/www/test.txt 的文件下载到/var/www/local_dir(本地目录)2、上传本地文件到服务器...

2018-07-19 09:24:35 137

翻译 【总结】Robust physical-world attacks on deep learning models

2018-07-12 09:15:50 1690 1

翻译 【总结】Obfuscated Gradients give a false sense of security:circumventing defenses to adversaria..

《Obfuscated Gradients give a false sense of security:circumventing defenses to adversarial examples》三种obfuscated gradients: shattered gradients:破碎梯度,产生于有意的不可导操作或者无意间数值不稳定造成 stochastic gradients:随机...

2018-07-11 15:51:22 2040

翻译 【总结】Practical Black-Box Attacks against Machine Learning

总策略:用一个adversary和DNN生成的label创造了合成训练集,并用这些新样本训练一个local model来代替目标DNN,再利用生成的模型来创造对抗样本主要用到了MetaMind的DNN网络来作为攻击对象adversary采集一个很小的具有代表性的输入作为新网络的输入,选择一个网络结构作为替代,反复迭代训练,加入更具代表性的合成数据,目标是要尽可能接近原结果对抗样本生...

2018-07-11 11:42:18 2032

翻译 ResNet

AbstractDeep features are important for visual recognition tasks, but deep nets suffer from vanishing exploding gradients. (深度网络会有梯度消失和梯度爆炸的问题) adding more layers results in higher training error(更...

2018-07-11 10:53:12 198

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除