![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 70
三井_pan
这个作者很懒,什么都没留下…
展开
-
深度学习中的 Batch_Size
xmlns="http://www.w3.org/1999/xhtml"> rel="canonical" href="http://blog.csdn.net/ycheng_sjtu/article/details/49804041"/>转载 2017-09-24 14:50:15 · 3479 阅读 · 0 评论 -
《常用的机器学习算法——SVM浅析》
SVM主要介绍以下的四个方面 1、线性可分的SVM和硬间隔(Hard Margin)最大化 2、线性可分的SVM和软间隔(Soft Margin)最大化 3、非线性SVM与核函数 4、SMO算法1、线性可分的SVM和硬间隔最大化1、问题描述1)问题描述:给定一系列的样本(x1,y1),(x2,y2),…,(xn,yn),其中xi是m维向量,yi属于{-1,+1}。 2)最终目的:找到一个分原创 2017-09-06 01:32:19 · 597 阅读 · 0 评论 -
机器学习10大经典算法
原文地址:机器学习10大经典算法1、C4.5C4.5算法是机器学习算法中的一种分类决策树算法,其核心算法是ID3算法. C4.5算法继承了ID3算法的优点,并在以下几方面对ID3算法进行了改进: 1)用信息增益率来选择属性,克服了用信息增益选择属性时偏向选择取值多的属性的不足;2)在树构造过程中进行剪枝;3)能够完成对连续属性的离散化处理;4)能够对不完整数据进行处理。C4.5算法有如下优点:产转载 2017-08-13 00:53:47 · 375 阅读 · 0 评论 -
opencv学习(8)形态学图像处理
本博文内容和代码均来自《opencv3编程入门》这本书;形态学图像处理多的方式主要有: 1、膨胀与腐蚀 2、开运算、闭运算、形态学梯度、顶帽、黑帽膨胀与腐蚀能实现多种多样的功能,主要如下: 1)消除噪声 2)分割(isolate)出独立的图像元素,在图像中连接(join)相邻的元素。 3)寻找图像中的明显的极大值区域或极小值区域 4)求出图像的梯度首先需要注意,腐蚀和膨胀是对白色部分(高原创 2016-08-03 21:44:26 · 2460 阅读 · 0 评论 -
最小二乘法的实现
在这里讨论一元线性回归模型; 简单分析这个问题: 一组数据(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4) … … 在平面上寻找一条直线,使样本回归函数尽可能好地拟合这组值,使总的拟合误差(即总残差)达到最小。为了计算和求导的方便,我们在这里放弃用点到拟合直线的距离和以及绝对值和的方法。采用”残差”的平方和。这里的“残差”指的是g(xi)和yi的距离。其中g(x)是拟合函数。原创 2016-07-27 19:52:52 · 527 阅读 · 0 评论 -
OpenCV中的神经网络
来源:http://blog.csdn.net/delltdk/article/details/8912867 OpenCV中封装了类CvANN_MLP,因而神经网络利用很方便。 首先构建一个网络模型: CvANN_MLP ann; Mat structure(1,3,CV_32SC1); structure.at(0) = 10; structu转载 2016-06-30 11:08:10 · 1162 阅读 · 0 评论 -
条件随机场CRF HMM,MEMM的比较
CRF,HMM(隐马模型),MEMM(最大熵隐马模型)都常用来做序列标注;HMM一个最大的缺点就是由于其输出独立性假设,导致其不能考虑上下文的特征,限制了特征的选择,而MEMM模型则解决了这一问题,可以任意的选择特征,但由于其在每一节点都要进行归一化,所以只能找到局部的最优值,同时也带来了标记偏见的问题(label bias),即凡是训练语料中未出现的情况全都忽略掉;而CRF则很好的解决了原创 2016-05-19 23:10:28 · 2131 阅读 · 1 评论 -
概率图模型的学习——Probabilistic Graphical Model
**一、概括**对于分类问题Given variables: **x** (observations) and**y** (predictions)• For example: weather forecast–**x** = {temperature, moisture, pressure, …}–**y**= {sunny, rainy, sto原创 2016-05-17 16:13:09 · 1975 阅读 · 0 评论 -
libSVM的使用介绍(3.20版本为例)
首先下载libsvm-3.20,将其进行解压,保存在d盘; 其次,进入命令行进行简单的测试和配置;d:(回车)进入到下一层,cd/libsvm-3.20\windows(回车) 然后,进行train。windows文件夹自带letter.scale.test.txt和letter.scale.train.txt文本; 然后在命令行下继续输入svm-train letter.s原创 2016-05-11 18:21:47 · 1106 阅读 · 0 评论 -
隐马尔可夫模型简单介绍
隐马尔可夫模型 (Hidden Markov Model) 是一种统计模型,用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数,然后利用这些参数来作进一步的分析。下图是一个三个状态的隐马尔可夫模型状态转移图,其中x 表示隐含状态,y 表示可观察的输出,a 表示状态转换概率,b 表示输出概率。下图显示了天气的例子中隐藏的状态和可以观察到的状态原创 2016-05-28 19:30:20 · 2037 阅读 · 1 评论 -
【机器学习算法1】——kmeans聚类的设计与实现
(本博客主要用于记录自己学习过程中的一些感悟和体会,如有错误之处希望大家帮忙指正,也希望跟大家共同学习共同进步。) kmeans算法属于非监督学习算法,因为在原始的数据集中没有类别标号。简单回顾一下kmeans聚类算法的思想: 给定k的值,将原始的样本分为k个簇,使每个簇内的散度最小,簇与簇之间的散度最大。我们这里用J=最小;所以具体的实现思路是: (1)由给定的聚类数初始化一个k维的数原创 2016-04-10 14:55:22 · 767 阅读 · 0 评论 -
批量梯度下降算法和随机梯度下降算法的代码实现
批量梯度下降算法和随机梯度下降算法的代码实现 随机梯度下降和批量梯度下降都是梯度下降方法的一种,都是通过求偏导的方式求参数的最优解。批量梯度下降算法:,。是通过对每一个样本求偏导,然后挨个更新。(对于大样本的实验,这种方法效率太低),而随机梯度下降算法则是从其中的所有样本中取出部分样本求偏导,对参数进行更新。#include "stdio.h" #include<iostream>usin翻译 2016-03-07 20:59:20 · 2838 阅读 · 0 评论 -
【机器学习学习过程中的笔记1——Stochastic gradient descent 和 Batch gradient descent 】
随机梯度下降和批量梯度下降都是梯度下降方法的一种,都是通过求偏导的方式求参数的最优解。批量梯度下降算法:,。是通过对每一个样本求偏导,然后挨个更新。(对于大样本的实验,这种方法效率太低),而随机梯度下降算法则是从其中的所有样本中取出部分样本求偏导,对参数进行更新。#include#includeusing namespace std;void main(){float原创 2016-03-07 09:07:26 · 658 阅读 · 0 评论 -
《常用的机器学习算法——SVM与LR的联系和区别》
上面那篇文章,简单的总结了李航老师《统计机器学习》上面的SVM的问题。其中软间隔的SVM主要指的是对那些线性不可分的样本集构建SVM分类的问题,允许一定的误分类,所以优化问题引入了参数C;作为惩罚因子,C越大惩罚越大允许的错误越小。 但是直接使用0/1损失函数的话其非凸、非连续,数学性质不好优化起来比较复杂,因此需要使用其他的数学性能较好的函数进行替换,替代损失函数一般有较好的数学性质。常用原创 2017-09-12 23:04:47 · 1038 阅读 · 0 评论