- 博客(9)
- 收藏
- 关注
原创 解析卷积神经网络(部分笔记)(未完成)
先验知识: 快速傅立叶变换 第二章: 概念: loss function = data loss + regulation loss 三维张量:xl∈RHl∗Wl∗Dl" role="presentation" style="position: relative;">xl∈RHl∗Wl∗Dlxl∈RHl∗Wl∗Dlx^l \in R^{H^l*
2018-01-28 11:00:22 409
转载 1.2集成学习——GBDT
背景知识: 回归树 D=(x1,y1),(x2,y2),...(xN,yN)D={(x_1,y_1),(x_2,y_2),...(x_N,y_N)} 选择第j个变量x(j)x^{(j)}和它取的值s,作为切分变量和切分点,假设已将输入空间划分为M个单元R1,R2...,RMR_1,R_2...,R_M, 并且在每个单元RmR_m上有一个固定的输出值cmc_m ,于是回归树模型可表示为f(x)
2018-01-22 15:35:58 237
转载 集成学习——总结
1,继承学习概述 对于训练集数据,通过训练若干个个体学习器,通过一定的结合策略,就可以最终形成一个强学习器。 2,集成学习之个体学习 种类: 同质的:强依赖性:(boosting)弱依赖性:(bagging,随机森林) 异质的:多个不同的学习器 3,集成学习之boosting(强依赖性) Boosting算法的工作机制是首先从训练集用初始权重训练出一个弱学习器
2018-01-22 15:31:14 482
转载 1.1集成学习——adaboost
问题: 1,如何计算误差率e; 2,如何得到弱学习器权重系数a; 3,如何更新样本权重D; 4,使用何种结合策略;一,adaboost算法的基本思路 训练集样本: T=(x1,y1),(x2,y2)....(xm,ym)\begin{eqnarray*}T = {(x_1,y_1),(x_2,y_2)....(x_m,y_m)}\end{eqnarray*} 训练集的第k个弱
2018-01-22 15:24:46 202
原创 采样方法
一,采样方法 1,接受-拒绝抽样 2,重要性抽样 3,MCMC(马尔可夫链蒙特卡洛方法):metropolis-hasting算法和它的特例Gibbs采样算法一,随机模拟的基本思想 1,求不规则面积: a,分割计算 b,我们抓一把黄豆,把它们均匀地铺在矩形区域,如果我们知道黄豆的总个数S,那么只要我们数数位于不规则区域M中的黄豆个数S1,那么我们就可以求出M的面积:M=S1∗R/S
2018-01-22 15:22:45 5455
原创 滤波器
本文主要介绍三种我最近常用的滤波器,并且添加一些对滤波器的认识。高斯滤波器双边滤波器引导滤波1,高斯滤波器高斯滤波器只考虑位置信息,即中心点的像素和周围点像素之间的权重,只和位置有关,位置越远,则像素权重越低。当然,高斯滤波器会事先选定窗口大小(3 * 3, 5 * 5),中心像素只考虑窗口内的像素信息。 权重公式:Wij=1Kiexp(−|xj−xi|2σ2)W_{ij
2018-01-18 15:42:20 878
翻译 pixel net(未完成)
abstract 我们探索关于一般像素级预测问题的方法,从低水平的边缘预测,到中水平的表面预测,到高水平的语义分割。例如fully-convolutional network(FCN)这类的卷积预测,通过卷积过程处理相邻像素的的空间冗余,已经实现了显著性的成功。虽然计算效率很高,由于空间冗余限制了在相邻像素间的信息获取,所以我们指出这样的方法不具有统计性效率。我们指出对像素的分层采样需要允许。
2018-01-11 15:02:21 497
转载 hard negative mining
【1】对于目标检测中我们会事先标记处ground truth,然后再算法中会生成一系列proposal,这些proposal有跟标记的ground truth重合的也有没重合的,那么重合度(IOU)超过一定阈值(通常0.5)的则认定为是正样本,以下的则是负样本。 【2】然后扔进网络中训练。However,这也许会出现一个问题那就是正样本的数量远远小于负样本,这样训练出来的分类器的效果总是有限的,
2018-01-08 14:48:26 659
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人