- 博客(20)
- 资源 (6)
- 收藏
- 关注
转载 Linux 批量修改文件名
原文链接linux 批量重名名 Linux Shell 批量重命名的方法总览1、删除所有的 .bak 后缀:rename ‘s/.bak$//’ *.bak2、把 .jpe 文件后缀修改为 .jpg:rename ‘s/.jpe$/.jpg/’ *.jpe3、把所有文件的文件名改为小写:rename ‘y/A-Z/a-z/’ *4、将 abcd.jpg 重命名为 abcd_efg.jpg:for
2017-11-23 12:49:59 1745
原创 KMP字符匹配
在KMP 中,主要是寻找模式字串的前缀和后缀的最长的共有元素的长度。 以”ABCDABD”为例, - “A”的前缀和后缀都为空集,共有元素的长度为0; - “AB”的前缀为[A],后缀为[B],共有元素的长度为0; - “ABC”的前缀为[A, AB],后缀为[BC, C],共有元素的长度0; - “ABCD”的前缀为[A, AB, ABC],后缀为[BCD, CD, D]
2017-09-15 14:50:33 728
原创 caffe 报错 Check failed: error == cudaSuccess (77 vs. 0) an illegal memory access was encountered
之前从没有遇到这样的问题,找了三个小时的bug和资料后,在此处发现了解决方案,他是这么说的:In my case the “top” and “bottom” layer in the “deconvolution” layers where the same (save variable but with different num_output) and this cause a strange
2017-08-02 16:50:53 12196 13
原创 Deep Learning based Large Scale Visual Recommendation and Search for E-Commerce
一篇用于相似物品的图片推荐的paper,github地址 网络结构如下所示 图a展示的是整体的框架,每个VisNet具体细节如图b所示。 VisNet是具有两个分支:一个传统 的VGG16和一个浅层网络(kernel size 较大) VGG16用于提取 high level/ abstract details 浅层网络用于提取 low level/fine-graind detailst
2017-04-29 21:23:58 844
转载 生成对抗式网络GAN 的 loss
GAN同时要训练一个生成网络(Generator)和一个判别网络(Discriminator),前者输入一个noise变量 zz ,输出一个伪图片数据 G(z;θg)G(z;\theta_g),后者输入一个图片(real image)以及伪图片(fake image)数据 xx ,输出一个表示该输入是自然图片或者伪造图片的二分类置信度 D(x;θd)D(x;θ_d),理想情况下,判别器DD 需要尽可
2017-04-27 14:23:51 27494 3
原创 Python re 正则 替换 括号内的内容
目标:将adod(23d)das中括号间的内容即23d替换为000 import re pattern=re.compile(r’(?<=().+?(?=))’) str1 = pattern.sub(str2 , str0)str0:adod(23d)das str2:000 str1:adod(000)das前向界定与后向界定 有时候需要匹配一个跟在特定内容后面的或者在特定内容前面的
2017-04-25 15:11:06 14286 5
原创 SSD 里的 atrous
SSD 论文里提到 Similar to DeepLab-LargeFOV , we convert fc6 and fc7 to convolutional layers, subsample parameters from fc6 and fc7, change pool5 from 2x2-s2 to 3x3-s1, and use the `a trous algorithm to fi
2017-04-23 21:26:19 6412 2
转载 caffe 计算 conv 图解
最后基本上就是Filter Matrix乘以Feature Matrix的转置,得到输出矩阵Cout x (H x W),就可以解释为输出的三维Blob(Cout x H x W)。
2017-04-23 18:49:30 680
原创 mxnet 编译后运行的第一个demo train_mnist.py时的错误
mxnet 编译后运行的第一个demo train_mnist.py时的错误OSError: /home/usrname/anaconda2/bin/../lib/libgomp.so.1: version `GOMP_4.0’ not found其实这个错误会在import mxnet时出现,原因是因为anaconda里对应的文件已经过期,需要update。 具体方法: 1. cd ./mxn
2017-04-22 12:47:30 708
转载 堆和栈的区别
在C++中,内存分成5个区,他们分别是堆、栈、自由存储区、全局/静态存储区和常量存储区。栈,就是那些由编译器在需要的时候分配,在不需要的时候自动清除的变量的存储区。里面的变量通常是局部变量、函数参数等。 堆,就是那些由new分配的内存块,他们的释放编译器不去管,由我们的应用程序去控制,一般一个new就要对应一个delete。如果程序员没有释放掉,那么在程序结束后,操作系
2017-04-16 23:27:42 236
翻译 局部加权线性回归
局部加权线性回归是机器学习里的一种经典的方法,弥补了普通线性回归模型欠拟合或者过拟合的问题。机器学习里分为无监督学习和有监督学习,线性回归里是属于有监督的学习。普通的线性回归属于参数学习算法(parametric learning algorithm);而局部加权线性回归属于非参数学习算法(non-parametric learning algorithm)。所谓参数学习算法它有固定的明确的参数,
2017-03-27 14:14:44 425
转载 Accuracy Layer
caffe在计算Accuravy时,利用的是最后一个全链接层的输出(不带有acitvation function),比如:alexnet的train_val.prototxt、caffenet的trainval.prototxt下图是这两个网络训练配置文件(prototxt文件)计算Accuray的配置文件截图的截图(对于该部分,alexnet和caffenet是一致的)最后一个全连接层 计算
2016-09-27 22:14:47 1402
转载 softmaxWithLoss Layer
caffe中的softmaxWithLoss其实是: softmaxWithLoss = Multinomial Logistic Loss Layer + Softmax Layer其中: Multinomial Logistic Loss Layer 即为交叉熵代价函数 Softmax Layer其实就是指softmax function(全连接那一步在它前面的fc中实现)示意图如下
2016-09-27 22:04:07 1219
原创 图像缩放by双线性插值
图像缩放by双线性插值现有300×300300\times300大小的图像I0,希望将它resize到 400×400400\times400 I1。 那么对于目标图像I1中的每个像素点来说,应该从原始图像I0中能找到对应的点来进行赋值。以下公式给出了这种对应关系: srcX=dstX×(srcWidth/dstWidth)(1)srcX = dstX \times (srcWidth / ds
2016-09-09 16:01:26 997
原创 fast-rcnn安装记录
第一教程当然是:https://github.com/rbgirshick/fast-rcnn第二,建议安装anaconda,后续将会很方便;PYTHON_INCLUDE及PYTHON_LIB如果使用了anaconda,在Makefile.config文件中打开ANACONDA_HONE,打开包含ANACONDA_HONE的PYTHON_INCLUDE及PYTHON_LIB,注释掉
2016-03-07 22:00:29 10862 1
转载 偏差、方差的权衡(trade-off)
偏差(bias)和方差(variance)是统计学的概念,刚进公司的时候,看到每个人的嘴里随时蹦出这两个词,觉得很可怕。首先得明确的,方差是多个模型间的比较,而非对一个模型而言的,对于单独的一个模型,比如说: 这样的一个给定了具体系数的估计函数,是不能说f(x)的方差是多少。而偏差可以是单个数据集中的,也可以是多个数据集中的,这个得看具体的定义。 方差和偏差一般
2014-12-25 18:44:02 3320
原创 python 安装 feedparser
学习《机器学习实战》的时候,需要RSS,首先要先安装feedparser。书上是这么说的: 在win7系统下进入cmd,首先配置python环境变量,可以自行搜索具体配置方法。这里可以下载feerparser:https://pypi.python.org/pypi/feedparser打开feedparser目录下的setup.py,用from distutils.core
2014-12-11 10:11:31 6456 1
翻译 my machine learning
分类:1.kNN优点:精度高、对异常值不敏感、无数据输入假定。缺点:计算复杂度高、空间复杂度高。适用数据范围:数值型和标称型。2.决策树优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特称数据。缺点:可能会产生过度匹配问题。适用数据类型:数值型和标称型。
2014-12-05 10:45:25 729
原创 win7 安装matplotlib
一个下午搞完了scikit-learn后,又被这个matplotlib卡住了,后来发现了pip是个好东西,也很方便先下载get-pip.py,(很多)以管理员方式打开cmd,进入python所在的文件目录,输入python get-pip.py 以下这个网址有具体步骤和获取get-pip.pyhttp://stackoverflow.com/questions/4750806/h
2014-12-03 18:38:47 1278 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人