- 博客(14)
- 资源 (13)
- 收藏
- 关注
原创 图像边缘检测算法
最近在做高光谱图像分类,觉得可以用一下random walker&图像边缘检测。 这里先学一下图像边缘检测算法(先前用过美团秀秀里的抠图笔,感觉好厉害,不知道用的啥方法)看了http://www.wtoutiao.com/p/e1crBv.html里面讲了几种方法, 比如:Roberts边缘检测,Sobel算子 个人感觉不符合人类视觉原理,而且忽视了边缘的连续性或者全局信息。random wal
2016-03-31 16:34:04 1169
原创 背包问题
动态规划源自0-1背包问题 看着个博客 http://shmilyaw-hotmail-com.iteye.com/blog/2009761 辅助百度经验里的图 http://jingyan.baidu.com/article/3ea51489fbdaa152e61bba38.html OK!
2016-03-31 16:30:31 295
原创 CS229的简单梳理(待续)
准备研究生复试,借机梳理一下CS229,以notes和《统计学习方法》和其他资源为辅助。1,首先是logistic回归 Andrew的logistic函数和李航书上的并不相同,Andrew的分母是负指数,考虑到是由GLM推导过来的,所以信Andrew的。 logistic感觉本质是一个线性模型(也难怪来自GLM),粗略理解成将线性模型映射成了概率;模型评价方法是极大似然估计。 从GLM出发还可
2016-03-21 09:22:12 1167
原创 蒙特卡罗方法和拉斯维加斯方法
这几天alphago比较火,许多文章中都出现了蒙特卡罗搜索树这样的名词,蒙特卡罗模拟过程倒是知道,比如说经典的蒲丰投针实验(将圆周率的求解装化为随机过程)等,但是蒙特卡罗搜索树确实不知是何物,不过应该会有类似的思想。蒙特卡罗是一类随机方法的统称。这类方法的特点是,可以在随机采样上计算得到近似结果,随着采样的增多,得到的结果是正确结果的概率逐渐加大,但在(放弃随机采样,而采用类似全采样这样的确定性方法
2016-03-16 23:58:12 2871
原创 EM 算法
这个算法李航在《统计学习方法》上说的比较好: “EM算法是一种迭代算法,用于含有隐变量的概率模型产生的极大似然估计,或极大后验概率估计。”Q函数:完全数据的对数似然函数logP(Y,Z|θlogP(Y,Z|\theta)关于在给定观测数据Y和当前参数θi\theta^i 下对未观测数据Z的条件概率分布P(Z|Y,θi)P(Z|Y,\theta^i)的期望称为Q函数,即 Q(θ,θi)=EZ[l
2016-03-16 17:17:04 717 2
原创 动态规划算法 决策树(ID3 C4.5)
动态规划算法(Dynamical Programming, DP)http://creativecommons.org/licenses/by-nc-nd/3.0/deed.zh 一句话:从分硬币说起,前者为后者铺路,状态与状态转移函数。ID3http://blog.163.com/zhoulili1987619@126/blog/static/353082012013113083417956/
2016-03-14 11:06:55 3025
原创 【CS229 lecture20】策略搜索
lecture20 强化学习最后一课 Agenda -POMDPs (partially observable MDPs) -Policy search (the main topic for today will be policy search algorithm, specificlly I’ll talk about two algorithms named Reinforced
2016-03-12 21:54:02 1648
原创 【CS229 lecture19】微分动态规划
首先声明一下,这节课基本没听懂,但是还是把课程笔记写下。lecture19 微分动态规划 继续强化学习算法的讨论 Agenda: 课程中段我曾讲过调试learning algorithm,今天再来将强化学习的部分: The motivating example is robotic control; first build a simulator… debugging a RL
2016-03-11 21:27:56 3432 4
原创 【CS229 lecture18】linear quadratic regulation(LQR) 线性二次型调节控制
lecture18 今天来讨论我最喜欢的算法之一,用以控制MDP,我觉得是一个优雅、高效、强大的算法。先讨论MDP的几个常见变种(与现有的MDP定义会有不同)。Agenda state-action rewards finite horizon MDPs linear dynamical systems 线性动力系统 -models -linear quadratic regulati
2016-03-10 21:03:59 7543 2
原创 【CS229 lecture17】连续马尔科夫决策过程
lecture17recap MDP how to generalize these idea (MDP) to continuous states?Continuous state MDPs (上节课讲的是离散的) -Discretization -Models/Simulator -Fitted value iteration -Q function -Approximate pol
2016-03-09 14:13:14 1719
原创 【CS229 lecture16】强化学习-马尔科夫决策过程(MDP)
刚看完了lecture16,借马尔科夫决策过程入门强化学习,趁热打铁把知识疏离一下(以Andrew的课为线索):lecture 16 马尔科夫决策过程 今天开始ML新的一章,讲强化学习。 agenda -MDPs -Value Function -Value iteration -Policy iteration 后面两个都是解决强化学习的算法。几个强化学习的例子: 斯坦福直升机 ,
2016-03-08 20:21:11 4007
原创 生成模型与判别模型
首先摘抄一段Andrew的话,从思想上把握一下区别:Algorithms that try to learn p(y|x) directly (such as logistic regression),or algorithms that try to learn mappings directly from the space of inputs X to the labels {0, 1},
2016-03-07 00:06:09 655
转载 朴素贝叶斯算法(分类算法)
朴素贝叶斯分类是一种十分简单的分类算法,叫它朴素贝叶斯分类是因为这种方法的思想真的很朴素,朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。通俗来说,就好比这么个道理,你在街上看到一个黑人,我问你你猜这哥们哪里来的,你十有八九猜非洲。为什么呢?因为黑人中非洲人的比率最高,当然人家也可能是美洲人或亚洲人,但在没
2016-03-06 20:31:36 1383
UFLDL exercise9 Convolution and Pooling
2016-04-13
UFLDL exercise8 Linear Decoder
2016-04-12
UFLDL exercise7 Stacked Autoencoder
2016-04-11
UFLDL exercise5 Softmax Regression
2016-04-11
UFLDL exercise6 Self-Taught Learning
2016-04-09
UFLDL exercise3&4 PCA and Whitening
2016-04-09
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人