- 博客(5)
- 资源 (2)
- 收藏
- 关注
原创 python学习笔记
1.元组、列表的使用user1 = ("a",25,"male") #元组,元素不能被修改,user1[1] = 24,错误user2 = ["b",28,"male"] #列表,功能与元组相同,内部元素可以修改,user2[1] = 24,正确2.单引号与双引号及3个双引号的问题s1 = 'I realy like "python"!' #如果用 "I realy like "
2013-12-01 19:01:02 627
转载 最全面的图像形态学处理
本章的练习主要是形态学的一些基本概念和技术,这些构成了一组提取图像特征的有力工具,针对二值图像和灰度图像的腐蚀、膨胀和重构的基本操作可以组合使用,以执行非常宽泛的任务。其练习代码和结果如下: 1 %% 第9章 形态学处理 2 3 %% imdilate膨胀 4 clc 5 clear 6 7 A1=imread('.\images\dipu
2013-12-26 15:00:55 790
转载 GMM与EM算法(零)
聚类的方法有很多种,k-means要数最简单的一种聚类方法了,其大致思想就是把数据分为多个堆,每个堆就是一类。每个堆都有一个聚类中心(学习的结果就是获得这k个聚类中心),这个中心就是这个类中所有数据的均值,而这个堆中所有的点到该类的聚类中心都小于到其他类的聚类中心(分类的过程就是将未知数据对这k个聚类中心进行比较的过程,离谁近就是谁)。其实k-means算的上最直观、最方便理解的一种聚类方式了,原
2013-12-09 17:07:44 928
转载 GMM与EM算法(二)
Model-based——GMM(Gaussian Mixture Model)1.GMM概念: -将k个高斯模型混合在一起,没给但出现的概率是几个高斯混合的结果。 -假设有K个高斯分布,每个高斯对data points的影响因子为πk,数据点为x,高斯参数为theta,则
2013-12-05 00:10:56 1329
转载 GMM与EM算法(一)
EM是我一直想深入学习的算法之一,第一次听说是在NLP课中的HMM那一节,为了解决HMM的参数估计问题,使用了EM算法。在之后的MT中的词对齐中也用到了。在Mitchell的书中也提到EM可以用于贝叶斯网络中。下面主要介绍EM的整个推导过程。1. Jensen不等式 回顾优化理论中的一些概念。设f是定义域为实数的函数,如果对于所有的实数x,,那么f是凸函数。当x是
2013-12-04 23:47:24 865
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人