深度学习
文章平均质量分 64
风化记忆
这个作者很懒,什么都没留下…
展开
-
深度学习相关学习资料
转自 http://blog.csdn.net/u013854886/article/details/48177251深度学习相关学习资料,Mark下1. Deep Learning课程(由浅入深):一个不错的中文博客: Deep Learning由浅入深.UFLDL机器学习教程:UFLDL Tutorial.我们组的一个Deep Learning的比较转载 2017-11-20 12:37:15 · 214 阅读 · 0 评论 -
对抗样例论文学习四
Distillation as a defense to adversarial perturbations against deep neural networks原创 2018-01-02 16:23:19 · 561 阅读 · 0 评论 -
对抗样例论文学习三
adversarial examples in the physical world这是 Goodfellow 在ICLR 2017会议上的论文。 目前攻击样例,攻击者均是直接对抗图像喂给分类器,但是这个在现实世界中可能不是那么容易。所以作者模拟了通过相机捕捉的对抗图像,观察现实世界中的对抗效果。因为经过照相和打印,会对原有图像进行了些许的扰动,可能会影响攻击的效果。作者使用谷歌Ince原创 2018-01-02 14:57:12 · 621 阅读 · 0 评论 -
对抗样例论文学习二
第二篇文章 Ian GoodFellow:Explaining and Harnessing Adversarial Examples.文章指出,早期解释对抗样例的原因主要在非线性和过拟合,但是GoodFellow却有不一样的看法,认为神经网络容易受到对抗扰动的原因是固有的线性特性,模型在高维空间的线性行为足够让攻击者找到对抗样例 对于之前Szegedy的工作,GoodFellow总结到,原创 2017-12-26 14:51:10 · 914 阅读 · 0 评论 -
吴恩达deep learning课程学习重点笔记
神经网络基础:梯度下降法指的是在给定一个初始值后,始终沿着当前最陡峭的下降方向进行移动。代价函数:二次型,交叉熵代价函数(cross-entropy cost)计算方法:backpropagation 优化方法:SGD随机梯度下降 softmax函数:输出概率化如果我们选择tanh作为激活函数,由于其平均值更接近于0,可以起到中心化的作用,通常更有利用算法优化。对于一个二分类问题原创 2017-12-26 13:51:19 · 727 阅读 · 0 评论 -
对抗样例论文学习一
对抗样例的主要主要思想就是在神经网络的输入端加入一个不以觉察的小扰动,但是在经过神经网络预测后造成误判。这样的样本叫做 adversarial example(对抗样本)。以下主要针对对抗样例的一些paper进行解读:第一篇对抗样例文章:Christian Szegedy等人在2014年发表一篇文章,Intriguing properties of neural networks原创 2017-12-25 09:33:00 · 671 阅读 · 0 评论 -
算法
1. 什么是高斯过程2. 为什么神经网络能学习很复杂的参数3. 为什么分布选择高斯分布(大数极限定理)4. 决策树的建立过程,信息增益,基尼指数。5. 随机森林为什么效果好6. 估计量跟样本有什么关系7.过拟合的原因是什么,有哪些解决方法8. 为什么dropout可以解决过拟合9. 为什么有残差网络?好处是什么10. 排序算法的最小复杂度11. f(x) 凹...原创 2019-02-26 22:34:02 · 194 阅读 · 0 评论 -
Python各类图像库的图片读写方式总结
转载自https://www.cnblogs.com/skyfsm/p/8276501.html最近在研究深度学习视觉相关的东西,经常需要写python代码搭建深度学习模型。比如写CNN模型相关代码时,我们需要借助python图像库来读取图像并进行一系列的图像处理工作。我最常用的图像库当然是opencv,很强大很好用,但是opencv也有一些坑,不注意的话也会搞出大麻烦。近期我也在看一些别人...转载 2019-07-24 09:37:07 · 1243 阅读 · 0 评论