机器学习
文章平均质量分 85
TasIsMe
这个作者很懒,什么都没留下…
展开
-
机器学习(0)-K-近邻算法(KNN)
优缺点和适用范围优点:精度高、对异常值不敏感、无数据输入假定。缺点:计算复杂度高、空间复杂度高。适用数据范围:数值型和标称型(离散型数据,变量的结果只在有限目标集中取值)。原理/数学推理过程存在数据集,且每个数据存在标签,输入没有标签的数据后,计算该数据到所有其他已知类别数据的距离,排序,并取最近的k个(k<20),选择k个数据中出现次数最多的类别作为输入数据的分类过程代码实现收集数据原创 2017-09-03 23:53:26 · 333 阅读 · 0 评论 -
机器学习(10)实例:自动驾驶,使用SVM跟踪视频中的汽车
最终视频效果点击图片查看视频 本文的目的是如视频所显示的效果,使用SVM算法在视频中找出汽车的位置github过程编写提取特征的函数使用svm和提取到的特征,训练一个二分类器,区分汽车和非汽车编写滑动窗口函数,并把每一个窗口使用svm判断是否汽车编写热力图函数,把多个判断为汽车的窗口合并为一个窗口opencv读取视频和图片转换为视频提取特征像素特...原创 2018-04-21 23:22:28 · 2893 阅读 · 3 评论 -
caffe使用教程(1)-网络文件配置
1.caffe介绍caffe是一种简单易用的机器学习框架。最大的特点是,网络结构层是使用配置文件设置的,而不需要编写代码。所以在训练网络模型阶段,甚至可以不用编写代码。2.caffe配置文件说明2.1文件说明使用caffe时会用到以下文件,需要说明的是,文件名是自定义的,但一般会加上“train”,“solver”,”deploy”来用于区分作用。 train.proto...原创 2018-02-26 23:07:44 · 1071 阅读 · 0 评论 -
机器学习(8)-人脸识别和 人脸定位
目的与过程概要1.目的:输入一张图片,让机器在人脸的位置画出一个框 2.过程概要训练一个能识别一张227*227的图像是否是人脸的二分类模型(使用AlexNet网络) =>人脸 =>非人脸修改训练好的网络模型,数据层改为输入层,全链接层改为全卷积层(起到窗口滑动的作用)将输入的图片进行放大缩小变换scal变换- 根据图像的大小,动态的修改网络模型的数据层环境首先,要安装以下环境Ubu原创 2017-12-23 00:36:27 · 21088 阅读 · 17 评论 -
机器学习(7)-EM算法
最大似然估计在讲EM算法前,回顾下最大似然估计 最大似然估计解决的问题是,在不知道参数θ的情况下,只有数据,要猜出参数θ。 假设参数为θ那么在θ参数出现的情况下,出现样本xix_i的概率就是p(xi|θ)p(x_i|θ) 考虑所有样本,计算最大值,进行累乘法:l(θ)=∏mi=1p(xi|θ)l(θ)=\prod_{i=1}^mp(x_i|θ)由于累乘计算难度比较大,加入一个对数转换为加原创 2017-12-03 23:52:30 · 365 阅读 · 0 评论 -
机器学习(6)-贝叶斯算法
什么是贝叶斯算法正向概率:假设袋子里有N个白球,M个黑球,那出黑球的概率有多大逆向改率:假设不知道黑白球的分布,摸出一个或者多个球,观察后推测球的分布正向概率容易求,而逆向概率却很难求,贝叶斯算法就是把逆向概率转换为正向概率来进行求解公式 P(A|B)=P(B|A)P(A)P(B)P(A|B)=\frac{P(B|A)P(A)}{P(B)}算法推理男生占了60%,女生占了40%,男生总是原创 2017-12-01 00:43:05 · 1175 阅读 · 0 评论 -
机器学习(4)-实例:信用卡欺诈检测
背景从提供的银行数据中,找出信用卡欺诈样本样本不均衡的解决方案由于欺诈样本属于少数样本,导致正常样本回远大于异常样本,直接计算会导致效果很差下采样(undersample):随机选择和异常样本一样多的正常数据和异常数据一同进行训练进行过采样(oversample):利用生成算法,生成和正常样本一样多的异常样本交叉验证交叉验证可使得训练的结果更加稳健将数据分割成训练集(80%)和测试集(2原创 2017-11-15 22:29:05 · 9045 阅读 · 2 评论 -
机器学习(5)-决策树与集成算法
1.什么是决策树从树的根节点开始一步步(决策)走到子节点的树型结构假如我门需要解决谁愿意和我们一起玩游戏的问题,并且有如下的数据 那么我们可以构造一个如下的决策树来预测结果 2.决策树的构建决策树定义很简单,关键是我们如何构建一棵决策树,为什么要把年龄当成树节点,把性别当成子节点?我们分配的标准就是,使用这个分类器后,使得数据的混乱度最大的降低。我们用熵来表示混乱程度度,熵 表示物体原创 2017-11-21 00:04:28 · 1180 阅读 · 0 评论 -
机器学习(3)-逻辑回归
Sigmoid函数g(z)=11+e−zg(z)=\frac{1}{1+e^{-z}}x取值为任意实数,y取值为[0,1]看成是把实数映射成一个概率值,可用作分类任务数学推导预测函数:hθ(x)=g(θTx)=11+e−θTxh_\theta(x)=g(\theta^Tx)=\frac{1}{1+e^{-\theta^Tx}}θTx\theta^Tx表示原假设函数的参数矩阵*特征二分类原创 2017-11-11 21:49:31 · 2938 阅读 · 2 评论 -
机器学习(2)-梯度下降
梯度下降原理上篇文章我们说到实际情况中,在实际的数据中线性回归通常偏导=0都是难以计算的,所以需要通过梯度下降的方法不断逼近真实的值。 梯度下降可以理解为:在某个点计算某个参数的偏导,然后用学习率αα\alpha乘以偏导θθ\theta就是该参数本次可以减少的差值,分别计算每个参数的可减少差值,不断的迭代计算损失值,直到收敛。三种梯度下降的方法按照每次迭代计算的样本数量 - 批...原创 2017-11-11 00:41:29 · 253 阅读 · 0 评论 -
机器学习(1)-线性回归
算法原理:假设一个函数可以拟合所有的数据,求出这个函数的参数,并用该函数来进行预测数学推导假设一个函数 当我们拿到一些数据时,先假设一个函数:hθ(X)=θ0X0+θ1X1+⋯+θiXih_\theta(X)=\theta_0X_0+\theta_1X_1+\dots+\theta_iX_i 其中假设X0=1X_0=1,X1X_1到XiX_i表示特征,θ0到θi\theta_0到\theta_原创 2017-11-06 22:35:18 · 334 阅读 · 0 评论 -
机器学习(9)-支持向量机
什么是支持向量机支持向量机是分类算法,目标是确立一个超平面来切分数据,(超平面在二维中是一条线,在三维中是一个面,以此类推),并且这个分类的边界要足够好,即离分割边界最近的数据点到分割边界的距离要越远越好(前提是所有的分类都是正确的,加入软间隔后可忽略部分离群点)。如图 点到面的距离点到面的距离公式看这个链接:https://www.cnblogs.com/graphics/ar...原创 2018-04-21 12:03:11 · 262 阅读 · 0 评论