自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

pennyliang的专栏

梁斌的博客

  • 博客(15)
  • 资源 (2)
  • 收藏
  • 关注

原创 machine learning实验7 矩阵求逆

#include"stdio.h"#include double function(double matrix[3][6],double theta[3],int sample_i){ double ret=0.0; for(int i=0;i<3;++i) { ret+=matrix[sample_i][i]*

2011-12-31 11:15:03 1714

原创 Machine Learning实验6 理解核函数

#include"stdio.h"#include double function(double matrix[5][4],double theta[3],int sample_i){ double ret=0.0; for(int i=0;i<3;++i) { ret+=matrix[sample_i][i]*

2011-12-30 11:50:59 2355

原创 SVM实验再续(SMO)

#include "stdio.h"#include using namespace std;float function(float alfa[5],float H[5][5],float sign[5]){ float ret = alfa[0]+alfa[1]+alfa[2]+alfa[3]+alfa[4]; for(int j=0;j<5;++j

2011-12-26 20:12:51 4079

原创 [Machine learning]SVM实验续

假定应用多项式核(核方法) 样本使用此前的样本。                     若有新元素(0,0)需要分类。            则Y(0,0) =  ,则(0,0)为负例           利用核方法后,支持向量代入后不再为+1,或者-1.即Y(1,1)!=-1,Y(2,3/2)!=1。这个我还没搞明白为什么,希望有朋友能告诉我。

2011-12-19 15:16:45 3450

原创 【Machine Learning】最近做的若干实验的总结

如果我们有如下训练数据,和如下假设:训练数据         结论X11,X12,X13,…X1n    Y1X21,X22,X23,…x2n   Y2…Xm1,Xm2,Xm3,…Xmn  Ym假设H(Yi) =θ0+θ1*xi1+θ2*xi2+…θn*xin需要通过训练数据得到一组(θ0, θ1,…θn)的系数数组。当有新的数据需要预测时,只需要将新的数据和系数数

2011-12-19 08:08:31 1745

原创 【Machine Learning实验5】SVM实验

说明:1)α2=0表示第二个样例不在分类面上,在分类面上的点αi均不为零。2)二次项矩阵,可以通过矩阵相乘相加方法得到,如上例3)目标函数变为负值,是为了照顾matlab的标准型。

2011-12-15 19:07:41 6405 1

原创 十个题目

1)写一个函数将一个小数转化为分数形式,深度优化,并解释这种优化的原因     例如f(0.3333333)=1/3  f(1.6666666)=5/32) 两个集合,集合内分别由100亿个整数(64位整数),存在部分整数相同,写一段代码,找出这两个集合相同的元素,即集合交集。(注意:集合(set)的科学定义是不允许重复的,这里可以看做一个group,就是一个容纳数字的容器,允许重

2011-12-15 14:08:22 3053 4

原创 重复是优化的基础

很多人问我怎么优化,这个问题我思考了很久,今天有了一个模糊的答案,这就是重复。       其实这个答案不是我给的,是我的游泳老师教会我的,“游泳需要反复练习”,“你只有反复练习,才能知道阻力在哪,动力再哪,累了就知道怎么去优化,怎么去偷懒,怎么提高效率”。        其实计算的优化也是如此,如果你对一个计算反复的操练,就会去剪枝,那些肯定不会达到最优结果的,剪掉。你就会去压缩,那些让

2011-12-15 00:14:31 1173

原创 人生的本质是平淡的,这才可以调入各种味道

平淡才是常态,精彩只是瞬间。      在这里也微博一下,记录下自己的心情。

2011-12-14 08:02:12 1020 1

原创 为目标而战斗

刚刚看到岳父在看电视,就跟着瞟了一眼,这部片子是《雪豹》,这个简短的情节是文章扮演的周卫国在演习中,不遵守指挥官的命令,找到对方布防图,带领侦察队,突击到对方总指挥部,俘虏了对方全部高级指挥官的故事,从而扭转战场形势,一举获胜。        记得我在搜狗的时候,曾参加了一次彩弹演习,游戏的规则是:如果被打中若干次,枪就打不出子弹,自动退出战场。教官把我们分为两队,我所在的一队先攻,另一队防守

2011-12-13 13:52:28 1620

原创 [Machine learning 实验4]linear programming

#include "stdio.h"int main(void){ /*float constrain_set[3][7]={ {-3,-6,-2,0,0,0,0}, //x0-3x1-6x2-2x3=0 object function {3,4,1,1,0,2,0}, //0x0+3x1+4x2+x3+x

2011-12-13 11:34:15 1763

原创 Discriminative Learning和Generative Learning

Discriminative 学习算法是一类模型化输入(X)输出(Y)的关系的方法,简单来说就好比中医,我们只知道用若干个药(当归,虎骨。。。)可以凑成一个药方,就能治疗跌打病痛。但我们并不去了解内部的原因,我们将其看做一个黑盒,只需了解X和Y的关系,即model P(Y|X).学习的结果就是X的一组参数,好比当归2钱,虎骨1两。Discriminative Learning要求X的各个项是独立变

2011-12-08 10:47:09 7333 2

原创 【Machine Learning实验3】SoftMax regression

神奇的SoftMax regression,搞了一晚上搞不定,凌晨3点起来继续搞,刚刚终于调通。我算是彻底理解了,哈哈。代码试验了Andrew Ng的第四课上提到的SoftMax regression算法,并参考了http://ufldl.stanford.edu/wiki/index.php/Softmax_Regression最终收敛到这个结果,巨爽。smaple 0: 0.98369

2011-12-07 05:14:55 7976 2

原创 【Machine Learning实验2】 Logistic Regression求解classification问题

classification问题和regression问题类似,区别在于y值是一个离散值,例如binary classification,y值只取0或1。        方法来自Andrew Ng的Machine Learning课件的note1的PartII,Classification and logsitic regression.        实验表明,通过多次迭代,能够最大化L

2011-12-06 11:37:33 4480 1

原创 参加Hadoop中国云计算大会有感

在受到大会执行委员查礼老师的邀请,参加了这次大会,并作了关于THUIRDB的主题报告。      主要的收获还是来自听其他牛人们得报告,有几点感想     1)关于一致性问题      一致性话题被讨论了很多,强一致性,最终一致性,弱一致性。不同的应用对一致性的需求不同,一致性的实现也不同,比如这样一个同步问题,阿斗接到了录取通知书考上了大学,阿斗有刘备,关羽,张飞,赵云这四个亲人,他

2011-12-04 10:58:17 2779

Topology-Calculation-Tuning本学期一份组内报告

这是一个在组内做的技术报告,从技术的观点,介绍了布局,计算和调优的工作,这些工作是一个工程师的必修课,这里以点带面的进行了展开,是为了表明,编代码不是盲目的写,而是要有计划,有层次,有把握地去写,我水平有限,这些只是自己的思考,因为我还刚上路呢。。。

2011-01-19

微软企业文化内训资料

微软企业文化内训资料,该资料主要介绍微软组织架构,价值观,管理理念等等

2010-07-09

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除