自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(22)
  • 资源 (9)
  • 收藏
  • 关注

转载 业余时间决定了你的人生

一百多年前,有道数学题难住了全世界的数学家:“2的67次方减去1,究竟是质数,还是合数?”这是一个数论的题目,虽然它的知名度远不如“哥德巴赫猜想”,但是,破解它的难度,一点儿也不逊于后者。数学家们做过种种尝试,都无功而退。出人意料的是,1903年10月,在美国纽约举行的世界数学年会上,一个叫科尔的数学家,面对满场等待他学术报告的听众,一言不发,径直走向黑板,写下了一个等式:2^67 - 1 = 19

2017-08-11 16:16:54 402

原创 机器学习第六周(二)

偏差(bias)与方差(Variance)以熟悉的三个例子开始: 在上一讲中引入了测试误差和多项式次数。在这里,计算训练误差和交叉验证误差。 更详细如下: 即随着多项式次数d的不断增大,训练误差是不断减小的,验证误差再到达最佳多项式次数前也是不断减小,随后不断增加,为一个凸函数形式。由这个图我们得到: 即当训练误差和验证误差近似相等且都比较大时,判断为高偏差、欠拟合(high

2017-08-31 21:36:42 1254

原创 机器学习第六周(一)

仍然以预测房价为例,为了提高模型表现,通常会有如下几个措施: 评估hypothesis(机器学习诊断法) 从模型得出的hypothesis可能会很好拟合当前数据,但泛化性能太差,即overfit。所以为了更好评估hypothesis,作者这里将数据分成俩部分。 一般取数据的前70%作为训练集,剩下的作为测试集。 以线性回归为例: 1)、对训练集进行学习,得到参数theta 2)、计算

2017-08-31 18:16:41 312

转载 red hat 下配置上网

上网设置:http://www.oicto.com/vmware-win7host-linux-red-hat-9guest-%E4%B8%8A%E7%BD%91/ 访问共享文件夹:http://blog.csdn.net/liufunan/article/details/52226258上网设置2:http://www.cnblogs.com/hwd-cnblogs/p/4819537.html

2017-08-28 23:38:02 554

转载 小波包变换入门——MATLAB

小波包变换的优势:(大部分书上 网上都有,我就简单摘了点过来) 由于正交小波变换只对信号的低频部分做进一步分解,而对高频部分也即信号的细节部分不再继续分解,所以小波变换能够很好地表征一大类以低频信息为主要成分的信号,但它不能很好地分解和表示包含大量细节信息(细小边缘或纹理)的信号,如非平稳机械振动信号、遥感图象、地震信号和生物医学信号等。与之不同的是,小波包变换可以对高频部分提供更精细的分解

2017-08-26 14:45:41 8930 1

原创 线性方程组个数和方程未知数与方程解的关系

今天看论文遇到个等式求解问题,卡壳了就在wiki上查了下 这里讨论非齐次线性方程组。非齐类似。 抓住这个核心: 矩阵中线性无关行向量的个数也称为矩阵的秩,矩阵的秩<=未知数的个数 当矩阵的秩等于方程未知数的个数时,方程有唯一解且解为0。 当矩阵的秩小于方程未知数的个数时,方程有无数个解。wiki的链接: https://zh.wikipedia.org/wiki/%E7%BA%BF%E6

2017-08-25 21:23:27 26526

转载 python常用的快捷键

ALT+P,上一个历史输入内容,ALT+N 下一个历史输入内容。 IDLE中按F5可以运行代码。编辑状态时: Ctrl + [ 、Ctrl + ] 缩进代码Alt+3 Alt+4 注释、取消注释代码行Alt+5 Alt+6 切换缩进方式 空格<=>TabAlt+/ 单词完成,只要文中出现过,就可以帮你自动补齐。多按几次可以循环选择Alt+M 打开模块代码,先选中模块,然后按下此快捷键,会帮你打开

2017-08-24 20:08:05 2814

转载 二进制加减法

十进制: 2 3 4 6 8 5- 1 6 8 5 9 0———————————————— 0 6 6 0 9 5在这个运算中,从右向左,5-0=5;8向前借一为18减九为9;六被减一为5再减5为0;4向前借一为14减8为6;3被减一为

2017-08-24 19:51:58 9808

转载 原码、补码、、、

首先说明一点这篇博文是基于网络资料 写作而来,尊重知识,广泛传播;可能你就需要它。但是转载请注明出处本博文参考链接 参考资料 参考资料本文说明一个基本的问题,补码的问题。需要说明一点补码是对负整数在计算机中存储的一种形式;另一种形式是负数在计算机中可以用符号+负数绝对值的形式表示一个负数;比如(-3: 1000 0011存储)但是这种表示的负数有两个零+0,-0,最要命的一点是不能做算术运算。比

2017-08-24 17:29:08 838

转载 Sift中尺度空间、高斯金字塔、差分金字塔(DOG金字塔)、图像金字塔

一、 图像金字塔图像金字塔是一种以多分辨率来解释图像的结构,通过对原始图像进行多尺度像素采样的方式,生成N个不同分辨率的图像。把具有最高级别分辨率的图像放在底部,以金字塔形状排列,往上是一系列像素(尺寸)逐渐降低的图像,一直到金字塔的顶部只包含一个像素点的图像,这就构成了传统意义上的图像金字塔。获得图像金字塔一般包括二个步骤:1. 利用低通滤波器平滑图像 2. 对平滑图像进行抽样(采样)有两

2017-08-16 17:18:50 601

原创 机器学习第五周(二)

1、Unrolling parameters 2、Gradient checking 梯度检验是对反向传播算法求得的偏导数的一种检验。公式如下: 应用到theta矩阵: 这里作者给出一个循环求每个梯度检验值,并将epsilon = 1e-4; 一般步骤: 记住,在用反向传播算法学习前,一定要关掉梯度检验,因为梯度检验运行效率非常慢。3、Random initializat

2017-08-15 11:01:31 529

原创 机器学习第五周(一)

1、Cost function 神经网络进行多分类结果的输出是以向量的形式,给出Cost function 并同逻辑回归做对比。 L是神经网络的层数;SL是L层的结点数(不包括偏置结点);K代表几分类。2、Backpropagation Algorithm 同线性回归和逻辑回归用梯度下降来求解损失函数的最小值一样,我们用BP算法(反向传播算法)来求解神经网络中损失函数的最小值。 首先,以

2017-08-14 12:06:11 379

转载 Printf输出顺序

对于printf函数printf(“%d%d\n”,a,b);函数的实际输出顺序是这样的先计算出b,然后在计算a,接着输出a,最后在输出b;例子如下:[cpp] view plain copy print?#include<iostream>  using namespace std;  int main()  {   int i=3,j=5;   printf(”%d  %d\n”,(i++

2017-08-12 21:20:28 860

转载 鸽巢原理

鸽巢原理也叫抽屉原理,是Ramsey定理的特例。也是编程爱好者必须掌握的研究离散问题中存在性问题的方法。 它的简单形式是 : 把n+1个物体放入n个盒子里,则至少有一个盒子里含有两个或两个以上的物体 。做题之前,先贴几个小问题:(1)月黑风高穿袜子   有一个晚上你的房间的电灯忽然间坏了,伸手不见五指,而你又要出去,于是你就摸床底下的袜子。你有三双分别为红、白、蓝颜色的袜子,可是你平时做事随便,

2017-08-11 16:27:04 2673

原创 matlab中的max函数

以下俩个易混: 1、[Y,I] = max(A) Y 返回A中每列中的最大数,I是返回这个最大数在第几行。Y,I都是行向量(可看作投影到X轴上) 2、[p,q] = max(A,[],2) p是返回每行的最大值,q是这个最大值所在的列。p,q都是列向量(可看作投影到Y轴上)

2017-08-05 10:54:08 4568

原创 Fminunc函数和Optimset函数

costFunction函数是自定义函数;输入是theta,输出是jVal和gradient,其中jVal是对照左边求损失函数的,gradient是对照左边求损失函数的偏导。Optimset函数:‘Gradobj’指用户自定义的目标函数梯度;‘MaxITer’指最大迭代次数,‘100’也就是最大迭代次数,这一项只能为整数。Fminunc函数:有三个输入,第一个输入为costfunction函数的句柄

2017-08-03 12:02:58 12041 3

原创 机器学习第四周(二)

1、Examples 神经网络应用到逻辑运算上 AND theta(1)=[-30,20,20],给出g(z)的图像,并假定g(4.6)=0.99,g(-4.6)=0.01,x1、x2分别取0,1,据theta值和x值代入g求得h的值,可以验证h的值是等于x1 and x2的。 同样运算,验证OR NOT XNOR 红线表示AND运算,蓝线表示(NOT x1)AND(N

2017-08-03 11:20:59 432

原创 逻辑运算符

1、and —— && (and和&&运算结果是一样的) 贴出wiki上的结果 “有假即假”2、or——|| “有真即真”3、nor “全0为1,其余为0”4、xnor 5、not

2017-08-03 10:15:47 389

原创 机器学习第三周(三)--正则化

1、过拟合问题(overfitting) 第一幅图片能看到模型能大致拟合数据,但效果不是很好;第二幅相比效果就好很多;第三幅图片也能很好的拟合当前数据,但是预测数据效果不行。我们将第一幅图片中的现象称为“欠拟合”( underfitting)也叫“高偏差”(high bias),第三幅中的现象称作“过拟合”(overfitting)也叫“高方差”(high variance)。图片2中的模型是我们

2017-08-02 21:44:17 398

原创 机器学习第四周(一)

1、Non-linear hypotheses,引入课程中的一幅图片 对于图中的数据,只有俩个feature,分类效果尚能令人满意,但当feature数量不断增大时,假设函数中二次项数会剧增,比如feature为100时,此时二次项数为(100*100)/2=5000个 作者后面又举了一个识别汽车的例子,在一幅50*50像素的图片中,特征量能达到2500个,那么二次项就有(2500*2500

2017-08-02 17:08:37 403

原创 标准库类型string

Getline函数:希望在最终得到的字符串中保留输入时的空白符。这时应该用getline函数 Getline函数的参数是一个输入流和一个string对象,函数从给定的输入流中读入内容,直到遇到换行符为止(换行符也被读进来了),然后把所读的内容存入到string对象中去(不存换行符)getline只要一遇到换行符就结束操作并返回结果,哪怕一开始输入的就是换行符也是如此。 注意使用Getline函数

2017-08-02 11:16:10 238

原创 机器学习第三周(二)--Cost function--Gradient descent

损失函数:逻辑回归如果使用和线性回归相同的损失函数,那得到的损失函数图像如下: 由函数图像看出,这是一个非凸函数(凸函数最重要的特征是局部最优解同时也是全局最优解),并不适用于做逻辑回归的损失函数。 我们对损失函数作出改变,得到全新的损失函数并得到其图像: 从图像看出,函数只有一个最小值,这个最小值是局部最小值同时也是全局最小值。这个损失函数是一个凸函数。 以二分类为例,输入结果

2017-08-01 11:19:39 642

linux.zip

linux命令学习总资源

2020-06-10

开发工具类 新建文件夹.zip

可用于设备研发开发工具 卸载工具 等等开发工具类

2019-12-06

desktopcal-setup-v2.exe

桌面日历工具包下载 上传

2019-10-13

Bypass_1.13.64.zip

分流工具学习下载,上传完成后西下载立刻删除 分流工具学习下载,上传完成后西下载立刻删除

2019-09-23

粒子滤波的相关文献

粒子滤波的相关文献

2018-02-05

SIFT_VLFeat

关于SIFT的VLFeat库 其中包含怎么在VLFeat中使用SIFT

2017-12-01

SIFT的英文PPT

SIFT的英文PPT 对每个部分讲解的比较详细 有比较多的插图

2017-12-01

Scale theory SIFT OpenSIFT

包含4篇论文,一篇是介绍尺度空间理论,学习SIFT的基础。俩篇David Lowe的SIFT论文(99年一篇,04年一篇)。还有一篇是Rob Hess关于OpenSIFT库的介绍

2017-12-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除