自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 资源 (6)
  • 收藏
  • 关注

转载 GCC实现多文件编译,静态库,动态库

//------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

2015-04-29 16:12:22 1210

原创 machine learning Photo OCR 机器学习的上限分析-判断机器学习中,哪个模块是值得花时间去提高性能

上限分析:判断机器学习流水线中哪个模块最值得花时间去提高性能的。             上面是图像的字符检测和识别系统:分成几个模块进行    Text detection -从图像中检测出含字符的区域    character segmentation -将含字符的区域进行字符的分割    character recognition     -将分割后的字符进行识别 

2015-04-28 14:34:01 1416

原创 machine learning week 9 异常检测 推荐系统

week 9的作业链接如下:http://download.csdn.net/detail/lujiandong1/8635873       这部分内容来源于Andrew NG老师讲解的 machine learning课程,包括异常检测算法以及推荐系统设计。异常检测是一个非监督学习算法,用于发现系统中的异常数据。推荐系统在生活中也是随处可见,如购物推荐、影视推荐等。课程链接为:

2015-04-27 10:22:38 1812

原创 Pthread的配置 win32情况和x64

下载的包,解压后有三个文件观察一下:pthread\Pre-built.2\lib包里面的情况这个工程设置比较简单:然后要添加附加依赖項,只需添加pthreadVSE2.lib,pthreadVC2.lib从lib文件夹里面,我们也只看到了pthreadVSE2.lib,pthreadVC2.lib两个文件,所以只添加此两个即可最后一步,

2015-04-21 20:01:06 12713 5

原创 machine learning week7 学习笔记 SVM 习题解答

先附上作业的下载地址:http://download.csdn.net/detail/lujiandong1/8610685  支持向量机,SVM,是非常强大且流行的算法,在一些情况下,能面向一些复杂的非线性问题提供比逻辑回归或神经网络要更加简洁的解决方案。 week7视频中,12 - 3 - Mathematics Behind Large Margin Classification

2015-04-19 21:10:30 3796

原创 OpenCV(C++接口)学习笔记4-Mat::operator = 的陷阱(被黑过一次,此陷阱很隐秘)

当我们想要将一个Mat对象的数据复制给另一个Mat对象时,应该怎么做呢?我们发现,OpenCV提供了重载运算符Mat::operator = ,那么,是否按照下列语句就可以轻松完成对象的赋值呢?Mat a;Mat b = a;答案是否定的!我们可以从reference manual 中看到:Mat::operator =Provides matrix

2015-04-18 21:12:36 1211

原创 合理使用 inline来优化程序 尽可能减少临时对象 尽可能使用初始化列表

调用 函数实际上将程序执行顺序转移到函数所存放在内存中某个地址,将函数的程序 内容执行完后,再返回到转去执行该函数前的地方。这种转移操作要求在转去前 要保护现场并记忆执行的地址,转回后先要恢复现场,并按原来保存地址继续执 行。因此,函数调用要有一定的时间和空间方面的开销,于是将影响其效率。特 别是对于一些函数体代码不是很大,但又频繁地被调用的函数来讲,解决其效率 问题更为重要。引入内联函数

2015-04-16 10:51:52 1769

原创 machine learning week6 诊断机器学习算法的性能 各种学习曲线 来判断学习算法是过拟合或欠拟合

先贴上作业的答案linearRegCostFunction.mfunction [J, grad] = linearRegCostFunction(X, y, theta, lambda)%LINEARREGCOSTFUNCTION Compute cost and gradient for regularized linear %regression with multiple

2015-04-12 12:57:26 5300 4

原创 Machine Learning week 1 Programming Excercise 数据归一化的代码 +画代价函数的学习曲线

function [X_norm, mu, sigma] = featureNormalize(X)%FEATURENORMALIZE Normalizes the features in X % FEATURENORMALIZE(X) returns a normalized version of X where% the mean value of each feature is

2015-04-09 20:46:38 1378

原创 machine learing week 10, 随机梯度下降 批量梯度下降 确定训练模型的数据规模 判断梯度下降是否收敛

1.1大型数据集的学习如果我们有一个低偏差的模型,增加数据集的规模可以帮助你获得更好的结果。我们应该怎样应对一个有100万条记录的训练集?以线性回归模型为例,每一次梯度下降迭代,我们都需要计算训练集的误差的平方和,如果我们的学习算法需要有20次迭代,这便已经是非常大的计算代价。首先应该做的事是去检查一个这么大规模的训练集是否真的必要,也许我们只用1000个训练集

2015-04-09 15:17:09 2326

原创 Machine Learning week 5 programming exercise Neural Network Learning

Neural Networks Learning       这次试用的数据和上次是一样的数据。5000个training example,每一个代表一个数字的图像,图像是20x20的灰度图,400个像素的每个位置的灰度值组成了一个training example。                                                           

2015-04-09 08:55:10 1445

转载 经网络中隐层数和隐层节点数问题的讨论

神经网络中隐层数和隐层节点数问题的讨论一 隐层数        一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合”的倾向。一般来讲应设计神经网络应优先考虑3层网络(即有1个隐层)。一般地,靠增加隐层节点数来获得较低的误差,其训练效果要比增加隐层数更容易实现。对于没有隐层的神经网络模型,实际上就是一个线性

2015-04-07 19:52:25 6716

推荐系统经典文章

推荐系统,协同滤波,矩阵分解,经典论文及其对应的PPT

2015-10-27

machine learning week9 作业答案

异常检测(Anomaly Detection),推荐系统(Recommender Systems)

2015-04-27

machine learining Dimensionality Reduction (Week 8) exercise

machine learining Dimensionality Reduction (Week 8) exercise K-Means Clustering and PCA

2015-04-22

machine learning Regularization (Week 3) exercise

machine learning Regularization (Week 3) exercise

2015-04-20

machine learning week7 作业解答

couresa machine learning week7 作业解答

2015-04-19

挖金子小游戏

挖金子小游戏,借鉴别人的,适合C++,win32入门

2014-11-10

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除