- 博客(25)
- 资源 (14)
- 收藏
- 关注
原创 国际会议经验
先想好自己需要向那些领域的专家提出什么问题,即想好开这个会我需要得到什么平时无法得到的、对我研究又非常重要的信息; 想好我通过这个会议向业内传递我的什么思想,找哪些些专家谈,以慢慢建立学术知名度; PPt读3遍,背诵1遍,再读2遍,正式演练2遍:哪怕是读不背诵也可以,以找出讲话中的语法、承上启下等语言问题; 上台前观察好前面演讲者与话筒、讲台的距离和声音效果,便于上台后尽
2012-06-21 00:38:24 1546
原创 geoinformatics2012 会议总结
参加geoinformatics2012 会议总结的部分前沿方向:利用社交信息提高移动应用中信息的丰富性和准确性物联网与移动应用相结合,如依据位置获取周边传感器,智能获取满足用户查询需求和潜在需求的上下文和附近状态信息室内外一体化定位和最优路径;check-in数据、城市公共交通卡数据与区域人口、经济之间的关系;地区间的电话数据与地区间经济交流及经济发展水平之间的关系;
2012-06-21 00:34:24 663
转载 美女主动搭讪?小心数学陷阱
还记得玛丽莲•沃斯•莎凡特(Marilyn vos Savant)吗?她是吉尼斯世界记录认定的最高IQ人类,在杂志《Parade》上开过一个名叫“问问玛丽莲”(Ask Marilyn)的专栏,专门解决读者的各种疑难杂题,最著名的自然是 三门问题 ,她高明且不可思议的回答让无数人伤透了脑筋。不过常在河边站哪有不湿鞋,就是这样一个“IQ最高”的人,也有糊涂的时候。来看看这道连玛莉莲都回答错的题吧。
2012-05-22 16:37:52 1142
转载 从酒鬼失足到赌徒破产,悲剧收场为何注定
很多看似不相关的事物,在背后却能有着相似的数学原理。它们之间的联系时常让人觉得诧异。比如酒鬼和赌徒背后就有着神奇的相同之处。本文从一个荒诞的酒鬼掉下悬崖的故事开始,最终讲述了在赌场里看上去违背常理的举动其实是最有道理的这个事实。很多看似不相关的事物背后却有着千丝万缕的关系,比如今天故事的主角——酒鬼与赌徒。让我们从酒鬼在悬崖漫步这个荒诞的故事开始,算算他不幸
2012-05-22 16:00:19 3660
翻译 网络计算智能研究方向
机器学习和概率模型: Recommendation systems and knowledge extraction are two immediate applications, with research required for large scale inference, modeling languages, and efficient decision making.博弈理论和协作机制
2012-05-14 21:13:02 894
转载 数据挖掘著名学者的网站(未完)
韩家炜http://www.cs.uiuc.edu/~hanj/著名数据挖掘书籍,《数据挖掘概念和技术》作者,在DM界久负盛名。他的个人主页里面有很多他的papers,都非常经典;还有他所教授的课程,可以下载课件学习。Jian Peihttp://www.cs.sfu.ca/~jpei/数据挖掘牛人,经常来中国讲授数据挖掘课程。个人主页上有他发表的数据挖掘相
2012-05-03 10:34:12 2771
翻译 数据、语义和信息融合(Information Integration, Databases and Ontologies)
IntroductionApproachAbstract Schemas, Schema Morphisms and the SCIA ToolOntologiesSome Related TopicsBrief BibliographySome Other LinksA BOBJ Approach1. IntroductionRap
2012-05-03 09:55:34 1584
转载 什么是 Convex function
In mathematics, a real-valued function defined on an interval is called convex (or convex downward or concave upward) if the graph of the function lies below the line segment joining any tw
2012-05-02 12:10:20 2007
转载 什么是Convex set
In Euclidean space, an object is convex if for every pair of points within the object, every point on the straight line segment that joins them is also within the object. For example, a solid cube
2012-05-02 12:09:04 1326
转载 认识“数据可视化”和“信息可视化”
我们经常在CNS杂志的论文、财经杂志、公司的宣传海报上看到如下所示的非常漂亮的数据图,那么这些infographic是怎么绘制出来的呢? 最近,“数据可视化”和“信息可视化”的话题在微博上得到了比较热烈的讨论和转发,现把一些资料汇总如下:信息可视化(Information Visualization)有两种解释:其一,作为广义的概念使用时,是包括数据可视化(Data
2012-04-26 10:48:36 1569
转载 (EM算法)The EM Algorithm
1. Jensen不等式 回顾优化理论中的一些概念。设f是定义域为实数的函数,如果对于所有的实数x,,那么f是凸函数。当x是向量时,如果其hessian矩阵H是半正定的(),那么f是凸函数。如果或者,那么称f是严格凸函数。 Jensen不等式表述如下: 如果f是凸函数,X是随机变量,那么 特别地,如果f是严
2012-04-25 16:25:38 631
转载 Latent Dirichlet Allocation 原文导读
有两种方法设计分类器: 1. discriminative model,就是由样本直接设计判别函数,例如SVM; 2. generative model,就是先从样本恢复概率模型——例如我们熟悉的参数方法:混合高斯模型GMM;非参数方法Parzen窗。然后再充分挖掘模型,用以分类。例如Bayes最大后验概率准则;或者将模型中的参数当作提取的特征(参数一般都比较少,所以这
2012-04-24 18:06:57 746
转载 最大似然估计的原理
给定一个概率分布,假定其概率密度函数(连续分布)或概率聚集函数(离散分布)为,以及一个分布参数,我们可以从这个分布中抽出一个具有个值的采样,通过利用,我们就能计算出其概率:但是,我们可能不知道的值,尽管我们知道这些采样数据来自于分布。那么我们如何才能估计出呢?一个自然的想法是从这个分布中抽出一个具有个值的采样,然后用这些采样数据来估计.一旦我们获得,我们就能从中找到一个
2012-04-24 14:46:07 4892
转载 混合高斯模型简谈
原理 : 高斯模型就是用高斯概率密度函数(正态分布曲线)精确地量化事物,将一个事物分解为若干的基于高斯概率密度函数(正态分布曲线)形成的模型。 对图像背景建立高斯模型的原理及过程:图像灰度直方图反映的是图像中某个灰度值出现的频次,也可以认为是图像灰度概率密度的估计。如果图像所包含的目标区域和背景区域相比比较大,且背景区域和目标区域在灰度上有一定的差异,那么该图像的灰度直方图呈现双峰-谷形
2012-04-24 11:12:57 1014
转载 KL距离——相对熵(Relative Entropy)
KL距离,是Kullback-Leibler差异(Kullback-Leibler Divergence)的简称,也叫做相对熵(Relative Entropy)。它衡量的是相同事件空间里的两个概率分布的差异情况。其物理意义是:在相同事件空间里,概率分布P(x)的事件空间,若用概率分布Q(x)编码时,平均每个基本事件(符号)编码长度增加了多少比特。我们用D(P||Q)表示KL距离,计算公式如下:
2012-04-24 10:44:39 1852
转载 N元语法模型的数据稀疏问题解决方法之一:Good-Turing平滑
在统计语言模型章节中,我们谈到了N元语法模型不可避免的一个问题,就是数据稀疏,其原因是大规模语料统计与有限语料的矛盾。根据齐普夫(Zipf)法则,我们能够推测知零概率问题不可避免。数据稀疏问题的解决办法就是进行平滑处理。平滑处理的算法有很多,本文将介绍众多算法中的佼佼者:古德-图灵(Good-Turing)平滑算法。 古德-图灵(Good-Turing)估计法是很多平滑技术的核心,于1953
2012-04-24 10:09:56 9822
原创 Discriminative Learning和Generative Learning的总体区别
Discriminative 学习算法是一类模型化输入(X)输出(Y)的关系的方法。Discriminative Learning要求X的各个项是相互独立变化的。只需了解X对Y的决定关系,即model P(Y|X).学习的结果就是X参数所决定的Y参数。Generative学习算法倒过来,是一类描述输出或中间参数(Y)产生输入参数(X)的概率的方法。需要的结果是其实也是model P(Y|X
2012-04-24 09:52:02 2208
翻译 My Review of Hadoop Summit 2011
I woke up early and cheery Wednesday morning to attend the 2011 Hadoop Summit in Santa Clara, after a long drive from Los Angeles and the Big Data Camp that lasted until 10pm the night before. Havin
2012-04-19 21:34:37 876
翻译 Big Data Camp 2011 见闻
It has been a while since I have been to Silicon Valley, but Hadoop Summit gave me the opportunity to go. To make the most of the long trip, I also decided to check out BigDataCamp held the night
2012-04-19 21:01:04 963
转载 爱因斯坦迷题
在一条街上,有5座房子,喷了5种颜色,每个房里住着不同国籍的人,每个人喝不同的饮料,抽不同品牌的香烟,养不同的宠物 问题是:谁养鱼? 提示: 1、英国人住红色房子 2、瑞典人养狗 3、丹麦人喝茶 4、绿色房子在白色房子左面 5、绿色房子主人喝咖啡 6、抽Pall Mall 香烟的人养鸟 7、黄色房子主人抽Dunhill 香烟 8、挪威人住
2012-04-19 14:10:46 821
翻译 topic model 发展方向
combine semantic variables (NLP) with topological variables (SNA) to predict som other semantic variables. LDA and its extensions can be used to model the evolution of topics over time, to model t
2012-04-18 17:35:08 2038
转载 流形学习(manifold learning)综述
假设数据是均匀采样于一个高维欧氏空间中的低维流形,流形学习就是从高维采样数据中恢复低维流形结构,即找到高维空间中的低维流形,并求出相应的嵌入映射,以实现维数约简或者数据可视化。它是从观测到的现象中去寻找事物的本质,找到产生数据的内在规律。流形学习方法是模式识别中的基本方法,分为线性流形学习算法和非线性流形学习算法,线性方法就是传统的方法如主成分分析(PCA)和线性判别分析(LDA),非线行流形学习
2012-04-18 12:02:44 1559 2
转载 模糊系统:挑战与机遇并存——十年研究之感悟 王立新
http://www.ee.ust.hk/ece.phphttp://www.ee.ust.hk/~eewang/王立新 于1984和1987年在西北工业大学分别获学士和硕士学位 1992年于美南加州大学获博士学位。1993年至今任教于香 港科技大学电机与电子工程系。研究成果被广泛引用。现为Automatic和IEEE Transaction on Fuzzy Systems 的副
2012-04-18 11:49:00 9838
原创 未来2年GIS发展的部分动向
通过往外一年内的期刊和今年GIS的顶级国际会议,特总结未来2年本人感兴趣的gis发展动向如下:基于WebGL的大规模全球三维场景;增强现实与传感器网、视频结合,进行行为路径可视化、表达、模式识别和预测(建议看看《3D Town Project: Augmented Urban Spaces》http://www.isprs2012.org/abstract/1695
2012-04-16 20:59:15 1152 1
转载 层次分析法
层次分析法层次分析法(The analytic hierarchy process,简称AHP),也称层级分析法么是层次分析法 层次分析法(The analytic hierarchy process)简称AHP,在20世纪70年代中期由美国运筹学家托马斯·塞蒂(T.L.Saaty)正式提出。它是一种定性和定量相结合的、系统化、层次化的分析方法。由于它在处理复杂的决策问题
2012-04-13 18:59:49 3881
人工智能——神经网络工具开源包NeuralNetworkToolkit
2010-04-19
栅格数据的适宜性分析
2010-04-18
ArcGIS 9.2 Geodatabase概要及其新特性
2010-04-18
基于OpenGIS简单要素规范的面向对象时空数据模型研究
2009-08-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人