- 博客(22)
- 资源 (9)
- 收藏
- 关注
转载 业余时间决定了你的人生
一百多年前,有道数学题难住了全世界的数学家:“2的67次方减去1,究竟是质数,还是合数?”这是一个数论的题目,虽然它的知名度远不如“哥德巴赫猜想”,但是,破解它的难度,一点儿也不逊于后者。数学家们做过种种尝试,都无功而退。出人意料的是,1903年10月,在美国纽约举行的世界数学年会上,一个叫科尔的数学家,面对满场等待他学术报告的听众,一言不发,径直走向黑板,写下了一个等式:2^67 - 1 = 19
2017-08-11 16:16:54 402
原创 机器学习第六周(二)
偏差(bias)与方差(Variance)以熟悉的三个例子开始: 在上一讲中引入了测试误差和多项式次数。在这里,计算训练误差和交叉验证误差。 更详细如下: 即随着多项式次数d的不断增大,训练误差是不断减小的,验证误差再到达最佳多项式次数前也是不断减小,随后不断增加,为一个凸函数形式。由这个图我们得到: 即当训练误差和验证误差近似相等且都比较大时,判断为高偏差、欠拟合(high
2017-08-31 21:36:42 1254
原创 机器学习第六周(一)
仍然以预测房价为例,为了提高模型表现,通常会有如下几个措施: 评估hypothesis(机器学习诊断法) 从模型得出的hypothesis可能会很好拟合当前数据,但泛化性能太差,即overfit。所以为了更好评估hypothesis,作者这里将数据分成俩部分。 一般取数据的前70%作为训练集,剩下的作为测试集。 以线性回归为例: 1)、对训练集进行学习,得到参数theta 2)、计算
2017-08-31 18:16:41 312
转载 red hat 下配置上网
上网设置:http://www.oicto.com/vmware-win7host-linux-red-hat-9guest-%E4%B8%8A%E7%BD%91/ 访问共享文件夹:http://blog.csdn.net/liufunan/article/details/52226258上网设置2:http://www.cnblogs.com/hwd-cnblogs/p/4819537.html
2017-08-28 23:38:02 554
转载 小波包变换入门——MATLAB
小波包变换的优势:(大部分书上 网上都有,我就简单摘了点过来) 由于正交小波变换只对信号的低频部分做进一步分解,而对高频部分也即信号的细节部分不再继续分解,所以小波变换能够很好地表征一大类以低频信息为主要成分的信号,但它不能很好地分解和表示包含大量细节信息(细小边缘或纹理)的信号,如非平稳机械振动信号、遥感图象、地震信号和生物医学信号等。与之不同的是,小波包变换可以对高频部分提供更精细的分解
2017-08-26 14:45:41 8930 1
原创 线性方程组个数和方程未知数与方程解的关系
今天看论文遇到个等式求解问题,卡壳了就在wiki上查了下 这里讨论非齐次线性方程组。非齐类似。 抓住这个核心: 矩阵中线性无关行向量的个数也称为矩阵的秩,矩阵的秩<=未知数的个数 当矩阵的秩等于方程未知数的个数时,方程有唯一解且解为0。 当矩阵的秩小于方程未知数的个数时,方程有无数个解。wiki的链接: https://zh.wikipedia.org/wiki/%E7%BA%BF%E6
2017-08-25 21:23:27 26526
转载 python常用的快捷键
ALT+P,上一个历史输入内容,ALT+N 下一个历史输入内容。 IDLE中按F5可以运行代码。编辑状态时: Ctrl + [ 、Ctrl + ] 缩进代码Alt+3 Alt+4 注释、取消注释代码行Alt+5 Alt+6 切换缩进方式 空格<=>TabAlt+/ 单词完成,只要文中出现过,就可以帮你自动补齐。多按几次可以循环选择Alt+M 打开模块代码,先选中模块,然后按下此快捷键,会帮你打开
2017-08-24 20:08:05 2814
转载 二进制加减法
十进制: 2 3 4 6 8 5- 1 6 8 5 9 0———————————————— 0 6 6 0 9 5在这个运算中,从右向左,5-0=5;8向前借一为18减九为9;六被减一为5再减5为0;4向前借一为14减8为6;3被减一为
2017-08-24 19:51:58 9808
转载 原码、补码、、、
首先说明一点这篇博文是基于网络资料 写作而来,尊重知识,广泛传播;可能你就需要它。但是转载请注明出处本博文参考链接 参考资料 参考资料本文说明一个基本的问题,补码的问题。需要说明一点补码是对负整数在计算机中存储的一种形式;另一种形式是负数在计算机中可以用符号+负数绝对值的形式表示一个负数;比如(-3: 1000 0011存储)但是这种表示的负数有两个零+0,-0,最要命的一点是不能做算术运算。比
2017-08-24 17:29:08 838
转载 Sift中尺度空间、高斯金字塔、差分金字塔(DOG金字塔)、图像金字塔
一、 图像金字塔图像金字塔是一种以多分辨率来解释图像的结构,通过对原始图像进行多尺度像素采样的方式,生成N个不同分辨率的图像。把具有最高级别分辨率的图像放在底部,以金字塔形状排列,往上是一系列像素(尺寸)逐渐降低的图像,一直到金字塔的顶部只包含一个像素点的图像,这就构成了传统意义上的图像金字塔。获得图像金字塔一般包括二个步骤:1. 利用低通滤波器平滑图像 2. 对平滑图像进行抽样(采样)有两
2017-08-16 17:18:50 601
原创 机器学习第五周(二)
1、Unrolling parameters 2、Gradient checking 梯度检验是对反向传播算法求得的偏导数的一种检验。公式如下: 应用到theta矩阵: 这里作者给出一个循环求每个梯度检验值,并将epsilon = 1e-4; 一般步骤: 记住,在用反向传播算法学习前,一定要关掉梯度检验,因为梯度检验运行效率非常慢。3、Random initializat
2017-08-15 11:01:31 529
原创 机器学习第五周(一)
1、Cost function 神经网络进行多分类结果的输出是以向量的形式,给出Cost function 并同逻辑回归做对比。 L是神经网络的层数;SL是L层的结点数(不包括偏置结点);K代表几分类。2、Backpropagation Algorithm 同线性回归和逻辑回归用梯度下降来求解损失函数的最小值一样,我们用BP算法(反向传播算法)来求解神经网络中损失函数的最小值。 首先,以
2017-08-14 12:06:11 379
转载 Printf输出顺序
对于printf函数printf(“%d%d\n”,a,b);函数的实际输出顺序是这样的先计算出b,然后在计算a,接着输出a,最后在输出b;例子如下:[cpp] view plain copy print?#include<iostream> using namespace std; int main() { int i=3,j=5; printf(”%d %d\n”,(i++
2017-08-12 21:20:28 860
转载 鸽巢原理
鸽巢原理也叫抽屉原理,是Ramsey定理的特例。也是编程爱好者必须掌握的研究离散问题中存在性问题的方法。 它的简单形式是 : 把n+1个物体放入n个盒子里,则至少有一个盒子里含有两个或两个以上的物体 。做题之前,先贴几个小问题:(1)月黑风高穿袜子 有一个晚上你的房间的电灯忽然间坏了,伸手不见五指,而你又要出去,于是你就摸床底下的袜子。你有三双分别为红、白、蓝颜色的袜子,可是你平时做事随便,
2017-08-11 16:27:04 2673
原创 matlab中的max函数
以下俩个易混: 1、[Y,I] = max(A) Y 返回A中每列中的最大数,I是返回这个最大数在第几行。Y,I都是行向量(可看作投影到X轴上) 2、[p,q] = max(A,[],2) p是返回每行的最大值,q是这个最大值所在的列。p,q都是列向量(可看作投影到Y轴上)
2017-08-05 10:54:08 4568
原创 Fminunc函数和Optimset函数
costFunction函数是自定义函数;输入是theta,输出是jVal和gradient,其中jVal是对照左边求损失函数的,gradient是对照左边求损失函数的偏导。Optimset函数:‘Gradobj’指用户自定义的目标函数梯度;‘MaxITer’指最大迭代次数,‘100’也就是最大迭代次数,这一项只能为整数。Fminunc函数:有三个输入,第一个输入为costfunction函数的句柄
2017-08-03 12:02:58 12041 3
原创 机器学习第四周(二)
1、Examples 神经网络应用到逻辑运算上 AND theta(1)=[-30,20,20],给出g(z)的图像,并假定g(4.6)=0.99,g(-4.6)=0.01,x1、x2分别取0,1,据theta值和x值代入g求得h的值,可以验证h的值是等于x1 and x2的。 同样运算,验证OR NOT XNOR 红线表示AND运算,蓝线表示(NOT x1)AND(N
2017-08-03 11:20:59 432
原创 逻辑运算符
1、and —— && (and和&&运算结果是一样的) 贴出wiki上的结果 “有假即假”2、or——|| “有真即真”3、nor “全0为1,其余为0”4、xnor 5、not
2017-08-03 10:15:47 389
原创 机器学习第三周(三)--正则化
1、过拟合问题(overfitting) 第一幅图片能看到模型能大致拟合数据,但效果不是很好;第二幅相比效果就好很多;第三幅图片也能很好的拟合当前数据,但是预测数据效果不行。我们将第一幅图片中的现象称为“欠拟合”( underfitting)也叫“高偏差”(high bias),第三幅中的现象称作“过拟合”(overfitting)也叫“高方差”(high variance)。图片2中的模型是我们
2017-08-02 21:44:17 398
原创 机器学习第四周(一)
1、Non-linear hypotheses,引入课程中的一幅图片 对于图中的数据,只有俩个feature,分类效果尚能令人满意,但当feature数量不断增大时,假设函数中二次项数会剧增,比如feature为100时,此时二次项数为(100*100)/2=5000个 作者后面又举了一个识别汽车的例子,在一幅50*50像素的图片中,特征量能达到2500个,那么二次项就有(2500*2500
2017-08-02 17:08:37 403
原创 标准库类型string
Getline函数:希望在最终得到的字符串中保留输入时的空白符。这时应该用getline函数 Getline函数的参数是一个输入流和一个string对象,函数从给定的输入流中读入内容,直到遇到换行符为止(换行符也被读进来了),然后把所读的内容存入到string对象中去(不存换行符)getline只要一遇到换行符就结束操作并返回结果,哪怕一开始输入的就是换行符也是如此。 注意使用Getline函数
2017-08-02 11:16:10 238
原创 机器学习第三周(二)--Cost function--Gradient descent
损失函数:逻辑回归如果使用和线性回归相同的损失函数,那得到的损失函数图像如下: 由函数图像看出,这是一个非凸函数(凸函数最重要的特征是局部最优解同时也是全局最优解),并不适用于做逻辑回归的损失函数。 我们对损失函数作出改变,得到全新的损失函数并得到其图像: 从图像看出,函数只有一个最小值,这个最小值是局部最小值同时也是全局最小值。这个损失函数是一个凸函数。 以二分类为例,输入结果
2017-08-01 11:19:39 642
Scale theory SIFT OpenSIFT
2017-12-01
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人