学习资料荟萃
不良CV研究生
闷骚的泛滥
展开
-
斯坦福大学Andrew Ng教授主讲的《机器学习》公开课观后感
近日,在网易公开课视频网站上看完了《机器学习》课程视频,现做个学后感,也叫观后感吧。 学习时间 从2013年7月26日星期五开始,在网易公开课视频网站上,观看由斯坦福大学Andrew Ng教授主讲的计算机系课程(编号CS229)《机器学习》(网址http://v.163.com/special/opencourse/machinelearning.html)(注:最早是在新浪公开课上转载 2015-09-14 10:52:03 · 906 阅读 · 0 评论 -
牛人的博客(图像处理,机器视觉,机器学习等)
1、小魏的修行路 http://blog.csdn.net/xiaowei_cqu 2、晨宇思远(邹宇华 北京航空航天大学) http://blog.csdn.net/chenyusiyuan 3、Rachel Zhang(张睿卿)的博客 http://blog.csdn.net/abcjennifer 4、zouxy09(邹晓艺) 华南理工大学 http://blog转载 2017-02-15 17:16:21 · 1189 阅读 · 0 评论 -
机器学习需看书籍
如果你只愿意看一本书,那么推荐Bishop的PRML,全名Pattern Recognition and Machine Learning. 这本书是机器学习的圣经之作,尤其对于贝叶斯方法,介绍非常完善。该书也是众多高校机器学习研究生课程的教科书,如Deep Learning的开山鼻祖Hilton在多伦多大学教授机器学习课程(CSC2515)时也选择了这本书。该书电子版在Bishop个人网页提供直转载 2016-11-09 13:18:21 · 7354 阅读 · 1 评论 -
自己整理的计算机视觉领域稍微容易中的期刊(第一版)
http://blog.csdn.net/carson2005/article/details/6292748模式识别,计算机视觉领域,期刊 (1)pattern recognition letters, 从投稿到发表,一年半时间(2)Pattern recognition 不好中,时间长(3)IEICE Transactions on In转载 2016-04-11 15:06:33 · 1204 阅读 · 0 评论 -
关于N-Gram模型
我把N-Gram关键的几句话贴出来(对别人帖子的一些修改): 该模型基于这样一种假设,第n个词的出现只与前面N-1个词相关,而与其它任何词都不相关,整句的概率就是各个词出现概率的乘积。这些概率可以通过直接从语料中统计N个词同时出现的次数得到。常用的是二元的Bi-Gram和三元的Tri-Gram。 在介绍N-gram模型之前,让我们先来做个香农游戏(Shannon Gam转载 2016-03-13 13:21:59 · 557 阅读 · 0 评论 -
关于最大似然估计和最小二乘法的理解和公式推导
http://www.zhihu.com/question/20447622亲爱的龙哥,Quant at Bluewood CapitalAttufliX、胖松鼠卷啊卷、po TAN 等人赞同最小二乘法可以从Cost/Loss function角度去想,这是统计(机器)学习里面一个重要概念,一般建立模型就是让loss function最小,而最小二乘法可转载 2016-02-02 12:22:22 · 5266 阅读 · 1 评论 -
贝叶斯推断及其互联网应用
http://www.ruanyifeng.com/blog/2011/08/bayesian_inference_part_one.html一年前的这个时候,我正在翻译Paul Graham的《黑客与画家》。那本书的第八章,写了一个非常具体的技术问题----如何使用贝叶斯推断过滤垃圾邮件(英文版)。我没完全看懂那一章。当时是硬着头皮,按照字面意思把它译出来的。转载 2016-01-31 17:52:36 · 405 阅读 · 0 评论 -
CV大牛部分表格
牛人和牛mm的照片见:http://www.sigvc.org/bbs/thread-548-1-1.htmlCV人物1:Jianbo Shi史建波毕业于UC Berkeley,导师是Jitendra Malik。其最有影响力的研究成果:图像分割。其于2000年在PAMI上多人合作发表”Noramlized cuts and image segmentation”。这是图像分割领域内最经典转载 2015-12-07 16:14:07 · 721 阅读 · 0 评论 -
最大似然度或者最大似然估計
本博客转于:http://blog.sina.com.cn/s/blog_598fbae20101blvd.html在BRM的数学推导中提到了,最大似然估计!!!最大似然估計(Maximum Likelihood,ML)最大似然估計概述最大似然估計是一種統計方法,它用來求一個樣本集的相關概率密度函數的參數。這個方法最早是遺傳學家以及統計學家羅納德·費雪爵转载 2015-11-03 10:44:30 · 1070 阅读 · 0 评论 -
什么是协方差/协方差矩阵/矩阵特征值
一、统计学的基本概念统计学里最基本的概念就是样本的均值、方差、标准差。首先,我们给定一个含有n个样本的集合,下面给出这些概念的公式描述:均值:标准差:方差:均值描述的是样本集合的中间点,它告诉我们的信息是有限的,而标准差给我们描述的是样本集合的各个样本点到均值的距离之平均。以这两个集合为例,[0, 8, 12, 20]和[转载 2015-09-30 14:33:44 · 27083 阅读 · 2 评论 -
sci-ei求中啊啊啊
pattern analysis and machine intelligence (PAMI) 顶级International Journal of Computer Vision (IJCV) 顶级SIAM Journal on Imaging Sciences 顶级Pattern Recognition (PR) 2.509 高IEEE TRANSACTIONS ON IM转载 2017-09-16 08:57:53 · 1763 阅读 · 0 评论