一些理论算法的学习资源推荐

学习一些经典的算法和理论毫无疑问是非常重要的,但又往往容易被忽视。其学习过程本就比较艰难,把所学整理成文章更是一件费心费力的事儿。这里记录一些自己在学习过程中遇到的好资源。

光流算法

文章:《光流Optical Flow介绍与OpenCV实现》
见解:很通俗,看了这篇文章你大概就知道光流是个什么东西了,当然,文章还附带了OpenCV的源码。如果需要进一步研究和使用,还需要查阅相关论文。文章概论做的很好,并没有对具体实现方法做仔细说明。此博客博主很牛,写过很多好文章哟。
文章:【算法分析】Lucas–Kanade光流算法
wiki: 光流法
这里有个简单的源码,大致看了一下:matlab练习程序(光流法)

卡尔曼滤波

A.形象了解
知乎问答:《如何用通俗的语言解释卡尔曼滤波器?》《如何通俗并尽可能详细解释卡尔曼滤波?》
WIKI: 卡尔曼滤波
B.深入理解
最重点推荐博文:卡尔曼滤波 – 从推导到应用(一)
知乎文章:《目标追踪之卡尔曼滤波》
【泡泡机器人好书一起读】机器人kalman教程(一)上 by 范泽轩
PDF:《用一小时、十分钟、一分钟和一句话阐释滤波(估计)》
C.实际应用进阶
这一部分没有找到很好的资料,也没有过多研究。
IMU+Camera: A Kalman Filter-Based Algorithm for IMU-Camera Calibration , 基于EKF的摄像机-IMU相对姿态标定方法
【泡泡机器人原创专栏-卡尔曼滤波器】LQR 的直观推导及简单应用

极大似然估计与EM算法

总的来说,极大似然估计就是利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值,EM算法是解决含有隐变量的极大似然估计的算法。
A. 形象了解
可以看看知乎吧,最大似然估计和最小二乘法怎么理解?最小二乘、极大似然、梯度下降有何区别?最大似然估计和EM算法的关系是什么?
B. 深入理解及实例
推荐一些网络资源:【机器学习】EM算法详细推导和讲解EM算法——最大期望算法【机器学习算法系列之一】EM算法实例分析
身边的书籍:周志华《机器学习》第7章里对这两个概念都有简单讲述,《统计学习方法》中第9章《EM算法及其推广》讲的很好

隐马尔可夫模型(HMM)

在自然语言处理领域,隐马尔可夫模型应该是及其重要且基础的了,在其他领域也有应用。算法整体感觉很美。这两天又回顾了一下,具体学习这一算法,参见:
A. 吴军的《数学之美》第5章 隐含马尔可夫模型 ,看他书至少能让你搞清楚至关重要的一点: 为什么要用它,以后碰到什么问题的时候你可能会想起来用它。
B. 李航的《统计学习方法》第10章 隐马尔可夫模型
C. 北大的PPT 隐马尔科夫模型 和 中科院自动化所(CASIA)的一个PPT 第6章 隐马尔可夫模型 , PPT前几页都有对马尔可夫模型的介绍。
谈到隐马尔可夫,突然想提一下概率图模型PGM,大家可自行了解学习。

实现Opencv中findContours()函数功能的部分原理

Opencv中findContours()函数对于查找轮廓非常方便,可提供轮廓数、外轮廓、内轮廓等信息。没有看过源码,这里简单了解一下其部分原理。
A. 图像分析:二值图像连通域标记

拉格朗日乘子法的理解

知乎的拉格朗日乘子法如何理解?,里边几个回答都不错,结合着看。
WIKI 拉格朗日乘数 给了两个例子,可以自己算一算,加深理解。
周志华的《机器学习》P403页 拉格朗日乘子法

纳什均衡

简单介绍一下。
纳什均衡有个这样的前提:决策圈中的个体都是独立、不合作、不横向沟通的。然后每个个体在猜测决策圈里的其他人的选择后,作出自认为最优的策略。这就叫纳什均衡。
囚徒理论是证明“纳什均衡不代表整体最优决策”的一个浅显的例子。
参考:
百科纳什均衡
知乎怎样向非专业人士专业地解释「纳什均衡」?
三十分钟理解博弈论“纳什均衡” – Nash Equilibrium

受限玻尔兹曼机(Boltzmann机)

受限玻尔兹曼机基础教程
wiki 受限玻尔兹曼机
周志华的《机器学习》书 5.5.6节 Boltzmann机
Neural networks class

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值