对SDM算法的一些改进

在参考了GithubGithub 的源码,学习了很多,现将一些资料在整理如下:

以下内容为转载的:详细参考http://wangcaiyong.com/2015/08/14/sdm/


我们下载了Github上的代码,并仔细阅读了其中的细节。

最后我们对源代码做了一些修正(新代码已上传到Github),主要包括:

  1. 修复了代码运行中出现的一些bug。
  2. 添加了一些函数,使代码更简洁
  3. 训练阶段我们采用了分批处理,优化了内存
  4. 参考论文《Extended Supervised Descent Method for Robust Face Alignment》,优化了源程序
  5. 在测试阶段,我们使用了逆的缩放和平移变换将得到的aligned_shape
  6. 转换为原始图片的特征点true_shape
  7. 添加了详细的注释,使之更容易明白。
Dependency:

Vlfeat library:  http://www.vlfeat.org/

提供了hog/sift特征函数,程序默认使用hog特征,如果要使用sift特征,你可以使用xx_sift.m提供的接口(见commom/desc/xx_sift.m).如果使用Vlfeat的sift,你需要修改程序。因为程序默认的sift接口为xx_sift.m

libLinear: http://www.csie.ntu.edu.tw/~cjlin/liblinear/


使用其提供的svm方法计算超定方程组的根

mexopencv: https://github.com/kyamagu/mexopencv


使用其提供的人脸检测程序(不过程序中我们一般以ground_truth的特征点的包围盒替代,更准确)


Datasets in use:

[300-W] http://ibug.doc.ic.ac.uk/resources/facial-point-annotations/

该数据集仅提供了68个特征点的数据,也就是w300类型的数据


新增函数列表

  • /common/cropImage/cropImage.m
  • /common/desc/xx_sift.m
  • /common/flip/flipImage.m
  • /common/io/write_w300_shape.m
  • /source/train/learn_single_regressor2.m

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值