自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

小白_努力

好好学习,天天向上

  • 博客(8)
  • 资源 (12)
  • 收藏
  • 关注

原创 逻辑回归原理介绍及Matlab实现

一、逻辑回归基本概念1. 什么是逻辑回归逻辑回归就是这样的一个过程:面对一个回归或者分类问题,建立代价函数,然后通过优化方法迭代求解出最优的模型参数,然后测试验证我们这个求解的模型的好坏。Logistic回归虽然名字里带“回归”,但是它实际上是一种分类方法,主要用于两分类问题(即输出只有两种,分别代表两个类别)回归模型中,y是一个定性变量,比如y=0或1,logis

2017-09-27 15:17:49 33701 18

原创 最大似然估计与最大后验概率的区别与联系

最大似然估计(MLE):最大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。简单而言,假设我们要统计全国人口的身高,首先假设这个身高服从服从正态分布,但是该分布的均值与方差未知。我们没有人力与物力去统计全国每个人的身高,但是可以通过采样,获取部分人的身高,然后通过最大似然估计来获取上述假设中的正态分布的均值与方差。最大似然估计中采样需满足一个很重要的

2017-09-22 14:42:00 24632 3

原创 机器学习中的损失函数分析与比较

损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以表示成如下式子:其中,前面的均值函数表示的是经验风险函数,L代表的是损失函数,后面

2017-09-21 22:02:12 7387

原创 生成式和判别式的联系与区别

生成式模型与判别式模型的区别生成式模型(Generative Model)与判别式模型(Discrimitive Model)是分类器常遇到的概念,它们的区别在于:对于输入x,类别标签y:产生式模型估计它们的联合概率分布P(x,y)判别式模型估计条件概率分布P(y|x)生成式模型可以根据贝叶斯公式得到判别式模型,但反过来不行。

2017-09-21 20:29:42 1560

转载 L1正则化和L2正则化的解释

正则化(Regularization)机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1-norm和ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。对于线性回归模型,使用L1正则化的模型建叫做Lasso回归,使用

2017-09-18 16:27:28 2387

原创 机器学习-组合算法总结

组合模型下面简单的介绍下Bootstraping, Bagging, Boosting, AdaBoost, RandomForest 和Gradient boosting这些组合型算法.1.BootstrapingBootstraping: 名字来自成语“pull up by your own bootstraps”,意思就是依靠你自己的资源,称为自助法,它是一种有放回的

2017-09-18 14:41:49 1992

原创 机器学习算法优缺点比较

本文主要回顾下几个常用算法的适应场景及其优缺点!(提示:部分内容摘自网络)。机器学习算法太多了,分类、回归、聚类、推荐、图像识别领域等等,要想找到一个合适算法真的不容易,所以在实际应用中,我们一般都是采用启发式学习方式来实验。通常最开始我们都会选择大家普遍认同的算法,诸如SVM,GBDT,Adaboost,现在深度学习很火热,神经网络也是一个不错的选择。假如你在乎精度(accuracy)的

2017-09-18 13:45:19 1307

转载 simhash算法----原理及实现

背景如何设计一个比较两篇文章相似度的算法?可能你会回答几个比较传统点的思路:一种方案是先将两篇文章分别进行分词,得到一系列特征向量,然后计算特征向量之间的距离(可以计算它们之间的欧氏距离、海明距离或者夹角余弦等等),从而通过距离的大小来判断两篇文章的相似度。另外一种方案是传统hash,我们考虑为每一个web文档通过hash的方式生成一个指纹(finger print)。

2017-09-17 17:42:00 2099

Graphviz.zip

解决python可视化模块中的GraphViz's executables not found!问题 双击运行graphviz-2.38 然后将GraphViz安装目录的bin目录放到环境变量的path路径中

2019-08-08

最全中文停用词表(1893个)

常用的中文停用词表,包括了常见的标点符号以及常见的停用词

2019-02-13

中文文本分类停用词表

中文文本分类,停用词表

2018-05-23

A Non-Local Cost Aggregation Method for Stereo Matching 核心算法PPT讲解

A Non-Local Cost Aggregation Method for Stereo Matching 作者关于核心算法做的PPT

2016-10-19

A Non-Local Cost Aggregation Method for Stereo Matching code

A Non-Local Cost Aggregation Method for Stereo Matching 完整代码

2016-10-19

zlib-1.2.5

使用png++/png.hpp所需的zlib库,此版本为1.2.5版本

2016-10-19

SGM C++代码 VS2013

Stereo Processing by Semiglobal Matching and Mutual Information代码,SGM在VS2013上运行通过,C++语言

2016-10-19

A Non-Local Cost Aggregation Method for Stereo Matching.pdf

2016-10-18

OpenCV FAST detection

OpenCV自带的FAST算法,另写了一个主函数,在VS2013环境下可以直接运行

2016-06-02

Meanshift C++

Meanshift目标跟踪算法,VS2013环境下直接运行

2016-06-01

ORB stitch

基于ORB的图像拼接代码

2016-06-01

ORB OpenCV

VS2013运行环境,可以直接运行

2016-06-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除