- 博客(202)
- 资源 (44)
- 收藏
- 关注
原创 在线编译C++程序、java api、python
arxiv文章查询:https://arxiv.org/find专利检索:http://www2.soopat.com/Home/IIndexsearch engine:https://search.chongbuluo.com/数据集检索:https://hyper.ai/datasetspip install xxxx -t 国内源国内源:清华大学ht...
2016-06-13 16:09:24 3379 1
翻译 使用NeRF进行3D体素渲染
使用NeRF进行3D体素渲染文章目录使用NeRF进行3D体素渲染前言一、设置二、下载并载入数据3.数据处理流程四、NeRF模型五、训练六、训练步骤可视化七、推理八、渲染3D场景九、视频可视化总结前言在这个例子中,我们展示了文献NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis的最小实现。作者提出了一种巧妙的方法,通过神经网络对体积场景函数进行建模,从而合成场景的新视图。为了帮助您直观地理解这一点,让我们从以
2022-04-06 15:13:42 5549 1
原创 文章记录Group Sampling+freeanchor
1 groupsampling for scale invariant face detection问题,训练样本中存在两种不均衡:1 正负样本不均衡,负样本个数远大于正样本个数。2 不同尺度上训练样本不均衡:比如retinaface在三个尺度上进行人脸检测,每隔尺度上的训练样本个数不均衡(由于基于iou的anchor匹配策略,小的物体更不容易找到合适的anchor):不同的方式对应的a...
2019-09-17 14:01:27 440
原创 对keras训练过程中loss,val_loss,以及accuracy,val_accuracy的可视化
hist = model.fit_generator(generator=data_generator_reg(X=x_train, Y=[y_train_a,y_train_g], batch_size=batch_size), steps_per_epoch=train_num // batch_size, ...
2019-04-18 17:09:15 20742 7
原创 价值网络和策略网络的简单融合
最近alphazero都已经出来了,貌似比alphago zero更厉害,在alphazero和alphago zero中使用了比较新的策略,将价值网络和策略网络进行了融合,即同一个网络,产生两个不同的输出,让两个网络的权重进行共享,同时进行更新,为了加深理解,在最简单的游戏cartpole上进行了尝试.实际上将价值网络和策略网络进行融合,实现起来应该是比较简单的,直接给出代码:https://g
2017-12-07 15:27:05 6756 1
原创 Deep Q Learning 笔记
alphago 基础之DQN Q learning: 1 主要用在解是离散时 2 主要是利用值函数,即,直接由值函数来推策略 3 其核心在于bellman方程和代价函数 bellman的核心在于使用reward的时候要考虑到将来的情况,而不是只考虑现在的情况,否则的话,只考虑到当前的reward就和人只顾当下,不考虑未来,是走不长远的,在游戏中就意味着,你很快将死掉,不论是Qlearnin
2017-11-29 10:46:00 1083 1
原创 Policy Gradient笔记
policy_gradient,主要包括两个网络: 价值网络和策略网络: 价值网络,主要用于评估基于当前状态下能够得到的最大reward(或者叫胜率),该最大reward包括该状态下的reward,以及后面几步的reward,只是后面几步的reward的权重系数更小 策略网络:主要用于评估在当前状态下采取哪个策略使得agent获取的reward最大,要利用训练数据的实际reward和价值网络产
2017-11-28 16:08:26 1388
原创 拉格朗日乘子法及KKT条件
拉格朗日乘子的引入: 1 对于求极值和有等式约束的优化问题,例如: 假设有自变量x和y,给定约束条件g(x,y)=c,要求f(x,y)在约束g下的极值。我们可以画出f的等高线图,如下图。此时,约束g=c由于只有一个自由度,因此也是图中的一条曲线(红色曲线所示)。显然地,当约束曲线g=c与某一条等高线f=d1相切时,函数f取得极值。两曲线相切等价于两曲线在切点处拥有共线的法向量。因此可得函数f(x
2017-10-25 17:53:28 1623
原创 核稀疏表示公式推导
本文是对文章kernel sparse representation with local patterns for face recognition中2.2节公式的推导 在优化求解中,很多人可能都会见过这个公式: 而根据正则项的不同,l1正则项,l2正则项,可以进行细分: http://blog.csdn.net/liyuan123zhouhui/article/details/51
2017-10-20 09:29:55 2176
原创 梯度下降法,牛顿法,坐标下降法
自己简单整理了梯度下降法,牛顿法,坐标下降法的理论,为了自己以后查看方便,时间有限,因此格式还有待改进! 梯度下降法 梯度下降法化算法是常见的优梯度,现在一般使用效果应该不怎么好,但是却是非常基础的理论 在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y), 分别对x,y求偏导数,求得的梯度向量就是(∂f/∂x, ∂f/∂y)T,
2017-10-19 10:56:49 5171
转载 牛顿法与拟牛顿法学习笔记(一)牛顿法
机器学习算法中经常碰到非线性优化问题,如 Sparse Filtering 算法,其主要工作在于求解一个非线性极小化问题。在具体实现中,大多调用的是成熟的软件包做支撑,其中最常用的一个算法是 L-BFGS。为了解这个算法的数学机理,这几天做了一些调研,现把学习过程中理解的一些东西整理出来。目录链接(1) 牛顿法(2) 拟牛顿条件(3
2017-10-19 10:33:31 632
原创 SVD在稀疏表示中的应用
SVD:singular value decomposition奇异值分解在认识SVD之前,先来学习两个相关的概念:正交矩阵和酉矩阵。如果,则n阶实矩阵A称为正交矩阵。而酉矩阵是正交矩阵往复数域上的推广。 判断正交矩阵和酉矩阵的充分必要条件是:。或者说正交矩阵和酉矩阵的共轭转置和它的逆矩阵相等。对任意矩阵,都能被奇异值分解为其中是的正交矩阵,是的正交矩阵,是由r个沿对角线从大到小排列的奇异值组成的
2017-10-18 16:00:50 3190
转载 稀疏编码中的正交匹配追踪(OMP)与代码
最近在看有关匹配追踪与相关优化的文章,发现了这篇http://blog.csdn.net/scucj/article/details/7467955,感觉作者写得很不错,这里也再写写自己的理解。文中有Matlab的代码,为了方便以后的使用,我顺便写了一个C++版本的,方便与OpenCV配合。为了方便理解,我将所有向量都表示为平面二维向量,待用原子表征的目标向量y,用红色表示
2017-09-30 17:28:39 1173
原创 Training Neural Networks with Very Little Data -- A Draft径向变换
最近有一篇针对数据增强的文章比较有意思:这里只讲一下核心的代码实现以及实现细节,原文可以自行查阅: Training Neural Networks with Very Little Data – A Draft 文章的大概意思就是通过某种变换,将笛卡尔坐标系的图像通过坐标变换,变换成极坐标系下的图像,该变换直接通过下面的公式给出: 变换比较简单,公式也写的很清楚,根据公式实现的代码:from
2017-09-18 12:10:02 1764 7
原创 文章Super-Convergence记录
Super-Convergence: Very Fast Training of Residual Networks Using Large Learning Rates 在这篇文章中,作者针对现在训练较慢,超参数学习率比较难找,给出了自己的解决方案,周期学习率: 将学习率设置一个最大值,和最小值,在给出一个参数stepsize,两个stepsize为一个周期,在前半个stepsize内,学习率
2017-08-31 11:26:02 1584
原创 Joint Cascade Face Detection and Alignment流程
论文Joint Cascade Face Detection and Alignment记录前言 现在人脸检测用深度学习甩传统方法一大截,但是记录下这篇文章,主要是看看思想(看文章时间较短,只有一天,有些地方可能有误): 这篇文章,使用级联树,将分类与回归都完成,使用的是局部二值特征,local binary feature,计算简单,高效,最后得到结果也还可以,但是也存在一定的问题: 参数难
2017-08-24 17:40:07 1759
原创 SVM公式推导
时间有限,markdown编辑公式不熟悉,全当是自己理理svm的公式了 支持向量机 SVM出发点: 1 对于二维平面,给定平面上的任何一个直线: 直线1 (1)对于平面上的任何一点,与直线的关系为:要么在直线上,要么在直线外,在直线上就是y(x)= 0 对于不在直线上,代入直线要么y(x) > 0,要么y(x) < 0 svm:对于平面上要分类的两类点(A类和B类
2017-08-08 15:59:05 1300
原创 softmaxwithloss入门及88.3365解决之道
softmax with loss:softmax从名字上看就是软最大,其做法其实很简单:前提:最后输出向量长度为N,与要区分的类别个数一致1 第一步,取向量的最大值,将每个值减去最大值,这样就会将所有的数都变成非正数2 求softmax:3 经过第二步就会将向量变成全部小于1,大于0,累加为1的向量,这样就比较符合我们输出每个类别的概率的判断:在那个类别下的值
2017-08-03 15:06:15 1495
原创 python脚本生成caffe train_list.txt
首先给出代码:import os path = "/home/data//"path_exp = os.path.expanduser(path)classes = [int(p) for p in os.listdir(path_exp)]classes.sort()# nrof_classes一个数据集下有多少个文件夹,就是说有多少个人,多少个类别nrof_cl
2017-07-10 17:56:49 2160
原创 caffe常见优化器使用参数
caffe中solver不同优化器的一些使用方法(只记录一些常用的)下面是一些公用的参数测试时需要前向传播的次数,比如你有1000个数据,批处理大小为10,那么这个值就应该是100,这样才能够将所有的数据覆盖test_iter: 100每多少次迭代进行一次测试.test_interval: 500weight_decay防止过拟合的参数,使用方式:
2017-07-05 16:04:03 3404
原创 激活函数简单理解
随着网络层数的加深,会出现梯度弥散或者梯度爆炸: 梯度弥散就是指梯度在反向传播的过程中梯度越来越小,直至为0,导致网络参数不再更新。梯度爆炸就是指梯度在反向传播的过程中梯度越来越大,导致参数更新太快,无法训练。梯度是从输出端根据loss求导反向传播的,根据求导的链式法则,靠近输入层的梯度是靠近输出层梯度累积的乘积,因此,连乘有可能会导致连乘的梯度越来越小或者越来越大,越来越小就叫梯度弥散,越来越大
2017-06-27 11:23:35 991
原创 selu激活函数和自归一化网络(SNN)
最近出现了一个新的激活函数:缩放指数线性单元(scaled exponential linear units,selu),根据该激活函数,提出了网络具有自归一化功能。首先给出文章地址:https://arxiv.org/pdf/1706.02515.pdf然后大概讲一下这个激活函数的作用(个人理解,也有可能有误)。 一般在深度学习中,在每层添加批处理能够使得网络收敛的更快,同时在效果上也有提升。
2017-06-25 11:22:20 14400
转载 人工智能相关术语
# 人工智能相关术语(按首字母排序)缩写|英语|汉语-----|-----|----- |**A**| |Activation Function|激活函数 |Adversarial Networks|对抗网络 |Affine Layer|仿射层 |agent|代理/智能体 |algorithm|算法 |alpha-beta prun
2017-06-25 09:38:31 971
原创 cmake交叉编译
在许多工程下自带的编译文本是CMakeLists.txt,对该文件,在Windows下可以使用cmake gui进行编译生成相应库文件或可执行文件而在linux下可以使用cmake命令生成相应makefile文件,再执行make命令即可生成相应的库文件或者可执行文件但是,如果你想直接通过这个CMakeLists.txt文件,在linux进行交叉编译,生成arm平台上的makefile,
2017-06-01 18:43:53 4046
原创 linux系统上编译arm版的protobuf库
从官网下载protobuf-2.6.0.tar.gz.第一步是编译出x86版的库和protoc,按顺序执行下列命令tar -zxvf protobuf-2.5.0.tar.gzcd protobuf-2.5.0./configuremakemake checksudo make install注意make in
2017-05-27 15:01:57 4996
转载 Linux下非root用户如何安装软件
Ubuntu,opensuse,debian这类的系统提供了软件仓库,里面有直接编译好的软件包可用。要安装g++?没问题!sudo apt-get install g++,两分钟见效,效果杠杠的。依赖问题自动帮你解决了,至于版本估计就不再考虑范围之内,能用才是王道!话说当年我也这样使用Linux好多年。这么看来,Linux安装软件也不是那么难的嘛,安装完之后直接敲命令就可以运行了。但是不是
2017-05-27 14:56:43 22784
原创 facenet_train.py代码注释
"""Training a face recognizer with TensorFlow based on the FaceNet paperFaceNet: A Unified Embedding for Face Recognition and Clustering: http://arxiv.org/abs/1503.03832"""# MIT License# # Copyri
2017-05-08 18:08:53 7903 5
原创 定时发送邮件
在做深度学习时,电脑通常需要跑几天才能够出现好的结果,有时候电脑在跑的时候,我们有可能回家了,或者已经放假了,但是我们想看看结果怎么办?那么我们可以使用msmtp定时发送结果到我们指定的邮件中查看结果需要做的是两步:第一步:1 通过命令行能够自动发送邮件及附件2 在ubuntu中添加定时任务,每间隔一个小时或者一分钟发送已次邮件1 自动发送邮件:需要安装mutt和msm
2017-05-08 11:21:05 1365
原创 数据挖掘与深度学习
本人正在从事于深度学习相关的工作,有感于深度学习强大的特征表达能力,本以为深度学习会在各行各业的人工智能中能够发光发热,但是发现在网络安全(网络漏洞)数据挖掘中深度学习应用还较少,主要是因为漏洞挖掘中一个比较难处理的地方在于漏洞之间的相似性,正常输入和异常输入没有太多相似特征,在属性类别或特征提取方面还有待研究,目前直接把深度学习用在漏洞挖掘领域并不好用。 本文将持续记录一些能够
2017-05-05 17:01:14 3940
原创 caffe group参数
caffe Convolution层的convolution_param参数字典中有一个group参数,其意思是将对应的输入通道与输出通道数进行分组,比如输入数据大小为90x100x100x32 90是数据批大小 100x100是图像数据shape,32是通道数,要经过一个3x3x48的卷积,group默认是1,就是全连接的卷积层,如果group是2,那么对应要将输入的32个通道分成2个1
2017-04-27 15:48:42 10382 12
原创 facenet chinese whispers(face cluster)
facenet face cluster chinese whispers
2017-04-21 11:11:18 10507 5
原创 ptb_producer注释
def ptb_producer(raw_data, batch_size, num_steps, name=None): """Iterate on the raw PTB data. This chunks up raw_data into batches of examples and returns Tensors that are drawn from these batc
2017-04-14 10:39:09 2607
原创 tensorflow 恢复指定层与不同层指定不同学习率
#tensorflow 中从ckpt文件中恢复指定的层或将指定的层不进行恢复:#tensorflow 中不同的layer指定不同的学习率with tf.Graph().as_default(): #存放的是需要恢复的层参数 variables_to_restore = [] #存放的是需要训练的层参数名,这里是没恢复的需要进行重新训练,实际上恢复了的参数也可以训练
2017-04-07 17:13:37 6299
Multiple_View_Geometry_in_Computer_Vision__2nd_Edition
2016-05-31
A Practical Introduction to Computer Vision with OpenCV
2016-05-31
speex降噪文献
2016-05-31
基于OpenCV的计算机视觉技术实现
2016-05-31
Algorithms_for_Image_Processing_and_Computer_Vision
2016-05-31
OpenCV 2 Computer Vision Application Programming Cookbook
2016-05-31
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人