人工智能
关关教你学编程
这个作者很懒,什么都没留下…
展开
-
深度学习中目标检测
检测的本质也是分类,只不过是将图像划分成一个个图像小块,对每个小块来判断有人或者是没人,再通过非极大值抑制得到整幅图像有人还是没人,如果有人的话,人的位置在哪里。1、RCNN——Faster-RCNN1.1 RCNNRCNN和传统的目标检测方法一样,分为四个步骤:提取框、对每个框提取特征、图像分类、非极大值抑制。差别在于以下几点:(1)采用Selective Search代替传...原创 2019-12-01 13:38:55 · 632 阅读 · 0 评论 -
数据处理和训练模型的技巧
1. 数据处理请参考PCA的数学原理,PCA利用数据之间的相关性,通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。2. 权重处理:神经网络权重初始化问题,Xavier初始化方法3.权重处理:批标准化关于BN的作用,总体来说,可以提升网络的速度性能和稳定性。至于为什么产生这样的效果,目的实际目前还没有定...原创 2019-08-16 16:49:28 · 617 阅读 · 0 评论 -
各种优化方法:SGD、动量梯度下降法Momentum、Adagrad, RMSprop, Adam
1、梯度下降法请参考随机梯度下降。梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。梯度的定义本身暗含着:只要参数沿梯度反方向走的足够小,就能使得之后的函数值不比之前的大,且下降率最快。也就是梯度下降法,下面给出证明:2、SGD如果每次都采用全部的梯度的话,那...原创 2019-08-10 11:15:51 · 981 阅读 · 0 评论 -
实现深度神经网络的步骤
以下图为例:step 1.前向传播:根据前向传播公式,逐步从前往后算出前向传播运算结果(绿色的那些值)。step 2.根据链式求导法则,逐步从后往前算出红色的那些梯度值。step 3. 根据随机梯度下降算法,参数更新公式,更新一波权重参数w0,w1,w2。step2和step3加起来是反向传播过程。然后不断循环该过程,直到loss(是一个跟权重参数有关的函...原创 2019-08-09 09:36:40 · 772 阅读 · 0 评论 -
对抗生成网络GAN
1、GAN的原理1.1 什么是GAN?生成对抗网络由生成模型和判别模型组成:生成模型和判别模型之间的交互可以类比为这样一个场景:生成模型是一个生产假币的伪造者,他的任务就是要生成假币然后使用假币而不被发现,判别模型则是一个警察,他的任务则是识别出那些假币,两者之间的较量使得伪造者不断提升制造假币的能力,警察不断提升识别假币的能力,最终警察无法区分伪造者生产的假币和真实的货币。...原创 2019-05-07 11:01:12 · 468 阅读 · 0 评论 -
语义分割、实例分割、全景分割的关系和区别
这三者的区别请参考超像素、语义分割、实例分割、全景分割 傻傻分不清?简单来说:1. 语义分割是最简单的,对每个像素做分类,比如说将这幅图像分为人和汽车。但是具体有三个人,无法对这三个人做具体区分。注意是每一个像素点,不分前景、背景。2. 实例分割是在语义分割的基础上,对这三个人做具体区分,分出甲、乙、丙三个人。一般分为自顶向下和自底向上两种:自顶向下是先画出一个个矩形框,然后再在矩...原创 2019-05-07 14:16:42 · 5715 阅读 · 1 评论 -
激活函数的作用是什么?
大部分激活函数相当于起到类似于简单开关的作用,比如sigmoid relu,和阶跃函数都有点儿关系,当然了,也有的看上去不怎么像开关。所以总体来说还是引入各种非线性,增加模型的表达能力,可以做到线性模型做不到的事。请参考聊一聊深度学习的activation function为啥输出不是zero-centered的时候,会发生下面的情况?在求梯度的时候,如果x都...原创 2019-08-07 15:46:31 · 1342 阅读 · 0 评论 -
coco数据集的学习和理解
1. 官方网址:http://cocodataset.org2.下载的资料这里只看2017版的:http://cocodataset.org/#downloadimages里面四个文件夹,下载下来的图像长这样:3. coco APIhttps://github.com/cocodataset/cocoapi这个API很傻的一个地方是,必须在python...原创 2019-05-07 15:47:49 · 10391 阅读 · 8 评论 -
多元线性回归公式推导
原创 2019-07-31 18:05:24 · 505 阅读 · 0 评论 -
最大似然估计公式推导
参考知乎说的通俗一点啊,最大似然估计,就是利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。例如:一个麻袋里有白球与黑球,但是我不知道它们之间的比例,那我就有放回的抽取10次,结果我发现我抽到了8次黑球2次白球,我要求最有可能的黑白球之间的比例时,就采取最大似然估计法: 我假设我抽到黑球的概率为p,那得出8次黑球2次白球这个结果的概率为:P(黑=8)=p^8*(1-p)^2,...原创 2019-07-31 18:11:26 · 2811 阅读 · 0 评论 -
逻辑回归公式推导
原创 2019-07-31 19:44:43 · 173 阅读 · 0 评论 -
可微和可导的关系,全微分、偏微分、偏导数
请参考:多元函数中可微与可导的直观区别是什么、全微分对于一元函数,可微和可导是一回事对于多元函数来讲,可微指的是全微分,可导指的是偏导数偏微分就好比过这一点的一个截面的切线,偏导数就是该切线的斜率全微分要求过这一点的所有的截面切线(360°无死角),共同所在的平面。所以偏导数存在不一定存在全微分,但是反过来,如果多元函数可微,就一定可导。...原创 2019-08-01 11:24:27 · 20383 阅读 · 0 评论