![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
学-evday
不断探索,不畏艰难!
展开
-
GAN & 对抗样本
目录关于对抗样本的解释关于对抗样本的解释对于对抗样本为何能够攻击成功,目前有以下三种解释:高维空间的线性模型解释:当输入为图像时,沿着梯度方向很小的线性运动就可以导致深度神经网络增加很大的扰动,权重向量ω\omegaω和对抗样本x′x′x′的内积ωTx′=ωTx+ωTn\omega^Tx'=\omega^Tx+\omega^TnωTx′=ωTx+ωTn,在nnn维情况下会产生nnn倍的扰动,以至于改变最终输出结果。(Explaining and harnessing adversarial exam原创 2020-11-24 21:19:31 · 3715 阅读 · 0 评论 -
Opencv简记
目录Opencv的使用Opencv的使用OpenCV提供了resize函数来改变图像的大小,函数原型如下:void resize(InputArray src, OutputArray dst, Size dsize, double fx=0, double fy=0, int interpolation=INTER_LINEAR );先解释一下各个参数的意思:src:输入,原图像,即待改变大小的图像;dst:输出,改变大小之后的图像,这个图像和原图像具有相同的内容,只是大小和原图像不一样而已原创 2020-11-20 11:25:20 · 192 阅读 · 0 评论 -
Linux服务器上的pytorch配置
这里写目录标题Anoconoda安装之前在服务器上配置过一次,但由于被师兄误删了,最近又要用到,就去重新配置了一下。上回配置,碰到好多问题,把自己都搞乱了,所以也没记录下什么,就趁着这次机会详细记录一下。Anoconoda安装...原创 2020-08-26 21:34:08 · 484 阅读 · 0 评论 -
谈深度学习里的那些优化方法
目录1. SGD2. Momentum(动量)3. Nesterov(牛顿变量)4. AdaGrad5. RMSProp6. Adam在深度学习中,为寻找最优解使得损失函数的值最小,我们经常会用到优化方法。下面,对这些优化方法简要介绍。1. SGDSGD,即随机梯度下降算法,通过从训练集中随机抽取mmm个小批量的样本,计算它们的平均梯度值,根据这个,对模型的参数进行更新。该优化算法实际上就是min-batch的实现,是最基础的优化算法,当今大部分优化算法都是以SGD为基础实现的。需要注意的是,在优化原创 2020-08-13 15:38:53 · 173 阅读 · 0 评论 -
机器学习的可解释性(总结)
目录背景什么是可解释性可解释性的分类ante-hoc可解释性post-hoc可解释性可解释性与安全性展望解释方法设计解释方法评估论文 机器学习模型可解释性方法、应用与安全研究综述.背景近年来,机器学习在计算机视觉、自然语言处理、语音识别等多个领域取得了巨大的成功,机器学习模型也被广泛地应用到一些重要的现实任务中,如人脸识别、自动驾驶、恶意软件检测 和智慧医疗分析等。然而,由于机器学习缺乏可解释性,在应用方面受到许多制约。例如DNN模型,就如同一个黑盒,给予一个输入,得到一个决策结果,但是我们无法确切原创 2020-07-18 01:08:38 · 10732 阅读 · 1 评论