自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 资源 (4)
  • 收藏
  • 关注

原创 java IO--获取指定目录下(包含子目录)指定拓展名的文件

依然在学习毕向东老师的java基础系列。讲求系统化学习,同时以验证自己的输入是否等于输出为目,分享其中的知识点给大家。现在有一需求:获取指定目录下,指定拓展名的文件(包括子目录),并将这些文件的绝对路径写入到一个文本文件中。如何来实现呢?首先我们必须要使用到递归方法来获取指定目录下(包括子目录)所有的文件;需求中有提到“指定的拓展名”,那么必须还需要过滤器类进行过滤操作;最后是文本文件操作

2014-12-27 08:45:30 613

原创 java IO 字节流的使用

之前学习到的字符流可以处理字符数据,但是对于其他类型的数据就无能为力了,比如想要复制MP3文件怎么办呢?这个时候需要使用的是字节流类来处理。在API当中找到了两大类:InputStream、OutputStream,这是所有字节输入/输入流的所有类的超类。至于其具体使用方法,和字符流的做法是一样的,在此不复述。在这里通过实现复制MP3文件的四种方法来体现字节流的具体使用方法:/**

2014-12-22 22:07:12 471

原创 java IO字符流 缓冲区类BufferedWriter与BufferedReader的用法

虽然在Reader父类与Writer父类中已经有了可以自己构造缓冲区并批量读取的方法read(char[] cbuf, int off, int len)、write(char[] cbuf, int off, int len);其中的cbuf字符数组就是缓冲区,但是java中已经为我们封装好了缓冲区类BufferedWriter与BufferedReader。我们来看看BufferedWri

2014-12-20 20:50:12 872

原创 ADXL345入门知识点(1)

ADXL345是3轴加速度计。体型:3 mm × 5 mm × 1 mm,14根引脚。方向性首先得要明白,如图所示:那么,什么情况下才算是正的加速度呢?当检测轴的方向和中立的方向相反时检测到的是正的加速度。用图说明最方便:那么14根引脚都是用来做什么用的呢?我们看图说话:结合之前的图示,从中间显示的各个方向轴位置我们可以知道拿到这个芯片之后各个引脚的名称。具体含义如下:

2014-02-23 15:06:01 616

原创 机器学习第九课--经验风险最小化、一致收敛

这节课讲的内容是关于学习理论的。老师说,检测机器学习学得是否扎实,可以从是否熟悉这方面的知识来做出相应的检测。我之前听说过VC维,但认为这个知识点太难了,好像跟我要用到的知识没啥关系(当时是个新手,接到的任务就是用神经网络识别车牌字符,连最基本的理论知识都没有的情况下就学习所谓的神经网络,自以为学得不错,于是有些沾沾自喜;而且将自己定位为对模式识别方面挺不错的一个人),就没有在意。现在才慢慢了解到

2014-02-18 23:38:53 1670 2

原创 机器学习--对1-8课学习过程的小结

翻开自己一路写下来的机器学习的博客,有些遗憾的是:我自己都基本上理不清博客的思路。这是由我一开始定下的规则有关--只写自己不懂的地方与自己的思考,这就造成了可阅读性很差,可能在学习的工程中理解了知识点,但是对于之后自己的整理以及他人的阅读都是不方便的。反倒是需要查看别人写的相关的博客来给自己理清思路。看来我需要调整写博客的规则了--记下学习的内容,同时记下自己的不解困惑与思考。推荐两个博客,里

2014-02-15 20:33:55 669

原创 机器学习第八课——SVM(3)核函数与SMO算法

(1)简单回顾。在继续学习之前,我要重新梳理一下上一节课的思路。未必都能够消化的前提下,这样做是必要的。问题思路:求解最优间隔分类器的时候,我们如何求解出W,b,和 a ?假设原问题的形式为:    对应的lagrange函数是:    我们通过相应的转换可以得到相应的dual问题形式:首先在假定a为定值的前提下,求解lagrange函数对w 和 b 的偏导数,并使得偏

2014-02-15 11:50:31 1206

翻译 机器学习第七课--SVM(2)拉格朗日算子

这节课听得吃力,能够理清主要知识点是目标。lagrange算子用于解决有限制条件的最优化问题,其中,有一种只带等式限制条件的优化问题的形式是:那么使用lagrange乘数法,先构建一个lagrange算子:其中的Bi称为lagrange乘数。进而对lagrange算子求w  与 Bi 的偏导,并令这两个偏导数的值为零,表达式为:由此求出的就是满足问题的最优解

2014-02-12 23:33:31 2096

原创 机器学习第六课---SVM(1)

(1)在前几个课程学习过程中没有发现,后来才突然想到的一个问题是:为什么logistic 回归依然算是线性分类器呢?在logistic回归中,h(x) = g( \theta*x ),而这个g( z )  = 1/(1- exp(-z)),在我的理解中它不应该属于线性分类器了吧。解释:我们判断一个新的输入样本属于哪一类的时候,是依据 h(x) 与0.5的大小关系来判断的(其实从logistic

2014-02-11 23:45:43 666

原创 机器学习第五课----朴素贝叶斯应用于垃圾邮件过滤

看了视频也看了笔记,写下自己困惑的点以及后来想明白的原因。(1)朴素贝叶斯的前提假设:在分类问题上,假设各个特征之间出现的概率相互独立。在老师的邮件过滤问题上,如下式所示:概率相互独立,自然好理解。但我一开始不清楚这个xi的含义。当我将它看成是特征时就好办了,一个邮件看成是X,X由多个word组成,那么每一个不同的word就是其中的特征xi。(2)通过最大似然估计得出来的参数是用来

2014-02-10 20:39:27 810

原创 机器学习第四课--牛顿方法

我一直想要弄清楚各个算法之间的联系,不过不一定这么容易做到。(1)首先,可以看出的是:牛顿方法可以较快的速度求出一个函数的零点所在的位置,应用在logistic回归模型中的作用是求出似然函数的最大值;其实第二课的梯度下降法也同样用于求极值(当然两种方法都不仅仅应用在logistic回归模型上)。两者的表达式如下:梯度下降法:

2014-02-08 17:14:40 623

原创 机器学习第三课--LWR的疑惑与想法

(1)局部加权回归算法作为非参数化学习算法的一个例子,虽然我大概知道此算法想要表达的意思,但还是有一些困惑:a.在使得目标函数J(\theta)最小化的过程中,既然不同的权值w(i)会因为x(i)与选定的点x 的距离远近的不同而不同,当权值w(i)为0时候,是否\theta的值可以随便取(因为此时的\theta所对应的w(i)为0)。经过查看讲义,明白如下:w(i)的值不可能取为0,且非负

2014-02-07 23:09:48 744 1

原创 机器学习第二课--梯度下降法(问题与想法)

之前看过一遍网易的机器学习,看得比较草率,一些深入的问题没有考虑过。现在尝试写下来,看看是否有不一样的收获。课堂的知识不重复,只写自己的思考与疑惑。(1)目标函数可以写成:                                                                    其中的h(x)可以是一次线性函数,也可以是二次函数,更可以是高次函数。不过不管h

2014-02-07 15:26:58 663

网易机器学习课16--增强学习与马尔科夫决策过程(MDP)

这是网易公开课上机器学习课程的第16课个人笔记,主要讲述的是增强学习与马尔科夫决策过程(MDP)

2015-01-22

C语言实用数字图像处理(日本人写的,容易懂挺不错)

C语言实用数字图像处理(日本人写的,容易懂挺不错),里面包含了相应的代码。

2013-06-26

蚁群算法的介绍

关于蚁群算法的简单介绍,适合初学者看看。里面有C++的代码以及详细的分析,通俗易懂。

2013-03-22

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除