机器学习
文章平均质量分 88
背包_十年
机器学习、计算机视觉、语音识别等方向学习。
展开
-
聚类
目录聚类的介绍层级聚类 单连通与全连通聚类平均连通聚类自顶向下聚类非层级聚类 K平均算法EM算法聚类的介绍聚类算法的目的是将一组对象划分为若干组或类别,简单的说就是相同元素相同组,相异元素不同组的划分过程。聚类算法与分类算法的区别在于:聚类算法是无监督学习,分类算法是一个有监督学习的过程。 聚类算法很多,目前主要可以分为两类:层级聚类和非层级聚类。在非层级聚类中类别原创 2015-02-14 15:44:30 · 1094 阅读 · 0 评论 -
用tf.data.dataset构建input pipline
用dataset构建input pipline这一部分主要参考tensorflow的官方教程:tf.data.datasets, 上一篇tensorflow数据读取是基于多线程数据抓取的方式,维护多队列(文件队列,example队列),是比较偏底层的。可能现在tensorflow开始慢慢走了上封装之路,datasets的出现隐藏了底层的实现。(还好不像python~~~~~~~~匿了)。因为本人是做原创 2018-03-17 12:06:03 · 7448 阅读 · 4 评论 -
[贝叶斯六]之朴素贝叶斯分类器设计
同样,类似于[贝叶斯四]之贝叶斯分类器设计,我们用一个例子:字母分类,来阐述朴素贝叶斯分类器的设计。老套路,搞个三部曲:特征向量生成决策函数设计模型训练在做问题分析之前,请先做数据集的分析。一、数据集分析数据集来自于UCI: UCI字母分类数据集链接这个数据集原始数据一共包含20000张图像(一般取前16000张图像作为训练,后4000张图像作为测试),每张图像经过...原创 2018-02-07 21:50:05 · 1025 阅读 · 0 评论 -
监督学习&回归问题(Regression)
分类模型如下: 回归问题:学习的结果是连续的,比如房价等等分类问题:学习的结果是非连续的,分成某几个类梯度下降例子: :条件:对于输入X有n个特征值。X = {x1,x2,x3,x4,.......,xnx1,x2,x3,x4,.......,xnx_1, x_2, x_3, x_4, ....... ,x_n}一共有m组输入。X1,X2,.........原创 2015-06-20 16:31:27 · 3201 阅读 · 0 评论 -
Classification and logistic regression
https://faiculty.com/>/* 版权声明:可以任意转载,转载时请务必标明文章原始出处和作者信息 .*/ faiculty: 机器学习、计算机视觉交流群:451429116 微信公众号、知乎专栏、简书,请搜索: faiculty本专栏主要为学习记录,可能综合了网上各类文章或博客,如有侵权请联系本人进行删除。 QQ:769412850.非常期待各位同学投原创 2015-08-21 22:18:58 · 1598 阅读 · 0 评论 -
多元高斯分布
个人网页blog已经上线,一大波干货即将来袭:https://faiculty.com/>/* 版权声明:可以任意转载,转载时请务必标明文章原始出处和作者信息 .*/ faiculty: 机器学习、计算机视觉交流群:451429116 微信公众号、知乎专栏、简书,请搜索: faiculty本专栏主要为学习记录,可能综合了网上各类文章或博客,如有侵权请联系本人进行删除。 QQ:原创 2015-06-21 14:52:54 · 18195 阅读 · 2 评论 -
卷积神经网络
原文地址:http://blog.csdn.NET/hjimce/article/details/47323463作者:hjimce卷积神经网络算法是n年前就有的算法,只是近年来因为深度学习相关算法为多层网络的训练提供了新方法,然后现在电脑的计算能力已非当年的那种计算水平,同时现在的训练数据很多,于是神经网络的相关算法又重新火了起来,因此卷积神经网络就又活了起来。在开始前,我们需要明确的是网上讲的卷转载 2016-10-31 16:18:16 · 1182 阅读 · 0 评论 -
机器学习___ELM
一.带有随机隐藏节点的单隐层前馈神经网络1.相关条件:N个不同样本(xi,tix_i,t_i), xix_i =[xi1,xi2,xi3,........,xin]T[x_{i1},x_{i2},x_{i3},........,x_{in}]^T, tit_i =[ti1,ti2,ti3,........,tim]T[t_{i1},t_{i2},t_{i3},........,t_{im}]^T原创 2015-04-17 21:16:28 · 2632 阅读 · 1 评论 -
文本分类
一.文本预处理定义:将文本转化为计算机可处理的形式,将文章分成单个的词语,形成向量形式。二.降维(特征选取)三.分类器的构建原创 2015-05-03 11:07:44 · 1400 阅读 · 2 评论 -
Logistics-->SVM
特征空间映射1. 问题简单的0,1分类 – 即标签y=y = {0,10,1}特征值:x=[x1,x2]x = [x_1, x_2]二维数据离散点如图: 2.解答数据是二维的,因此如果利用Logistics Regression 的到的θ\theta只有三个数,所以分类超平面是二维坐标下的直线由数据分布图可以知道分类超平面应该是一个二次曲线,所以这里利用多项式核函数:K=(<x1,x2>原创 2015-08-06 11:26:25 · 1129 阅读 · 0 评论 -
神经网络
感知器1.定义 感知器是一种最简单的前馈神经网络,多输入单输出,是一种二分类。 优点:学习算法简单,易于理解。 缺点:学习速率低,学习效果差。不便于初学者运用,参数选择很难。2.算法 采用的是一种简单的惩罚机制。条件:样本特征值:x=[x1,x2........xn]x = [x_1, x_2 ........ x_n], y∈y \in { -1, 1}, 初始值θ\th原创 2015-08-22 10:52:27 · 1192 阅读 · 0 评论 -
生成算法
思路:之前的线性回归都是根据特征值服从的分布猜想结果,生成算法是根据结果猜想特征值的分布。贝叶斯公式:GDA高斯分类器:模型:写成表达式的形式:分离效果图:推理:原理:根据上述表达式的形式和最大似然原理,我们要求出这两个高斯分布,使给出的case最大限度的符合。写成表达式的形式:原因:为什么要求p(y|x)p(y|x)的最大似然:因为我们是要求给出XX后预测YY,因此我们要求给出x下y原创 2015-06-26 20:57:19 · 2824 阅读 · 0 评论 -
一般线性模型
指数分布族形式:应用:1. logistic 回归:logistics 回归其实是伯努利分布。p(y;θ)=θy∗(1−θ)1−yp(y;\theta) = \theta^y * (1-\theta)^{1-y} . 其中θ\theta可以看做hθ(x)h_\theta(x)伯努利分布是指数分布的一个特列: 其中: η=log(θ1−θ)\eta = log(\frac\theta{原创 2015-06-21 09:21:21 · 3961 阅读 · 0 评论 -
matlab中常用函数
size函数size():获取矩阵的行数和列数s=size(A), 当只有一个输出参数时,返回一个行向量,该行向量的第一个元素时矩阵的行数,第二个元素是矩阵的列数。[r,c]=size(A), 当有两个输出参数时,size函数将矩阵的行数返回到第一个输出变量r,将矩阵的列数返回到第二个输出变量c。size(A,n)如果在size函数的输入参数中再添加一项n,并用1或2为n赋值,则 size将返转载 2015-04-18 15:05:02 · 722 阅读 · 0 评论 -
[聚类一]之距离计算
距离计算我们通常采用计算“距离”的方法来度量不同样本之间的相似性,进而判断该样本的大致类别。距离首先是一个几何概念,用dist(⋅,⋅)dist(⋅,⋅)\mathrm{dist}(\cdot,\cdot)表示,其中最为任熟悉的是二维和三维几何空间的欧几里德距离,随着数据维度的增大,距离在维数、幂次数等方面被推广了,距离被抽象为满足一些基本性质: 非负性:dist(xi,xj)≥0;(...原创 2018-03-05 22:18:12 · 7232 阅读 · 3 评论