机器学习
a1111111111ss
本人博客都是学习笔记有原创也有转载并不是为了盈利,为了有个地方放笔记顺便也分享一下自己学习笔记,
展开
-
计算机视觉openCV图像的基本操作
openCV图像形态学操作读取图像img=cv2.imread(‘name’) 彩色的img=cv2.imread(‘name’,cv2.IMREAD_GRAYSCALE) 黑白图像保存cv2.imwrite(‘mycat.jpg’,img)读取视频①cv2.VideoCapture{‘name.mp4’}可以捕获摄像头,用数字来控制不同设备,例如:0,1 ②如果是视频文件,直接指...原创 2020-05-06 17:21:29 · 376 阅读 · 0 评论 -
机器学习数据增强
机器学习数据增强数据增强比较好的神经网络需要大量的参数,许许多多的神经网路的参数都是数以百万计,而使得这些参数可以正确工作则需要大量的数据进行训练,而实际情况中数据并没有我们想象中的那么多数据增强的作用 :增加训练的数据量,提高模型的泛化能力增加噪声数据,提升模型的鲁棒性数据增强的分类 :数据增强可以分为两类,一类是离线增强,一类是在线增强。离线增强 : 直接对数据集进行处理,数据...原创 2020-05-06 10:40:28 · 1391 阅读 · 0 评论 -
深度学习数据集问题总结
数据集问题问题1:数据量不够。1、数据集的数量太少,你的模型没有足够的数量,没法去找到其中的特征,在这样的情况去拟合数据,会导致虽然训练结果问题不是很大但是测试错误会很高。解决方法一去收集更多的数据给你的模型去训练解决方法二通过对原有的数据的一些变化创建多个副本去增强数据集的数量问题2:低质量的分类解决方法花些时间浏览一下您的数据集,并验证每个样本的标签。这可能花很多时间,但在数...原创 2020-05-05 17:20:36 · 5200 阅读 · 0 评论 -
机器学习SVD(奇异值分解)
机器学习SVD(奇异值分解)(个人理解:说白了就是吧矩阵分解成好几个)通过SVD对数据的处理,我们可以使用小得多的数据集来表示原始数据集,这样做实际上是去除了噪声和冗余信息,以此达到了优化数据、提高结果的目的SVD公式图解...原创 2020-05-05 12:01:00 · 247 阅读 · 0 评论 -
机器学习主成分分析
机器学习主成分分析主成分分析(Principal Component Analysis,PCA), 是一种统计方法。通过正交变换将一组可能存在相关性的变量转换为一组线性不相关的变量,转换后的这组变量叫主成分。数据降维PCA主要通过把数据从高维映射到低维来降低特征维度找线的方法,让点到直线距离最小PCA原理及实现从 k=2->1 k=3->2(降维)注意1:虽然PCA有...原创 2020-05-05 11:39:41 · 354 阅读 · 0 评论 -
机器学习聚类算法
**聚类算法**k-means算法经典的k-means算法的流程如下:1.创建k个点作为初始质心(通常是随机选择)2.当任意一个点的簇分配结果发生改变时1.对数据集中的每个数据点1.对每个质心1.计算质心与数据点之间的距离2.将数据点分配到距其最近的簇2.对每个簇,计算簇中所有点的均值并将均值作为质心(黑色小星星是质心点)开始分类分类结束同样的图,由于k的值的改变聚类...原创 2020-05-05 09:25:58 · 255 阅读 · 0 评论 -
机器学习集成学习
集成学习机器学习的监督算法中,目的都是训练出来一个非常好的模型,但通常,我们只能得到多个有偏好的模型(弱监督模型,在某些方面表现的比较好)。有某个模型某个方面很好,我们就想,可不可以把这些模型的都综合起来,这样让他各个方面都很棒成方法是将几种机器学习技术组合成一个预测模型的元算法,以达到减小方差(bagging)、偏差(boosting)或改进预测(stacking)的效果。数据集数据集大...原创 2020-05-05 08:22:18 · 280 阅读 · 0 评论 -
机器学习最小二乘法
最小二乘法最小二乘法实际上就是求点到直线最短距离最小二乘法直线拟合,最小二乘法多项式(曲线)拟合最小二乘法处理的一般模型表达式如下:直线曲线注意图解...原创 2020-05-04 10:59:56 · 139 阅读 · 0 评论 -
机器学习监督学习
卷积神经网络(强烈推荐这是机器学习非常重要的一个)https://blog.csdn.net/a1111111111ss/article/details/105900137监督学习概念1、选择一个适合目标任务的数学模型2、先把一部分已知的“问题和答案”(训练集)给机器去学习3、机器总结出了自己的“方法论”4、人类把”新的问题”(测试集)给机器,让他去解答监督学习有2个主要的任务:...原创 2020-05-04 10:45:09 · 535 阅读 · 0 评论 -
机器学习思维导图
本人的各个文章怕你们一个一个找太麻烦在这里给你们整理一下方便你们挑选卷积神经网络(强烈推荐这是机器学习非常重要的一个)https://blog.csdn.net/a1111111111ss/article/details/105900137监督学习机器学习临近算法https://blog.csdn.net/a1111111111ss/article/details/105913646机...原创 2020-05-04 10:25:51 · 319 阅读 · 1 评论 -
机器学习K-近邻算法
K-近邻算法(KNN)1、K-近邻算法(KNN)概述KNN是通过测量不同特征值之间的距离进行分类。它的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别KNN算法的结果很大程度取决于K的选择。eg:下面通过一个简单的例子说明一下:如下图,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?如果K=3,由于红色三角形...原创 2020-05-04 10:11:57 · 319 阅读 · 0 评论 -
机器学习逻辑回归和线性回归区别
逻辑回归**https://zhuanlan.zhihu.com/p/28415991逻辑回模型 也叫sigmoid函数公式逻辑回归假设函数公式推出线性回归的假设函数代价函数常见的代价函数1.在线性回归中,最常用的是均方误差(代价函数)2。在逻辑回归中,最常用的是代价函数是交叉熵代价函数与梯度逻辑回归梯度下降中的梯度指的是代价函数对各个参数的偏导数,偏...原创 2020-05-04 09:56:17 · 686 阅读 · 0 评论 -
机器学习SVM
SVM支持向量机SVM支持向量机他是一个二类分类模型,是给基本模型的特征空间间隔最大的线性分类器,目的就是求最大间隔eg:给定一些数据点用X表示数据点,用Y表示分的类别(y可以取1或者-1,分别代表两个不同的类)线性分类器(SVM)就是要在N维中找到一个超平面可以将数据更好的分类这个超平面的方程可以表示为(wT中的T代表转置):SVM实现原理步骤1、用数学来定义要求解的问题SV...原创 2020-05-04 09:50:24 · 280 阅读 · 1 评论 -
机器学习朴素贝叶斯
朴素贝叶斯贝叶斯分类是一类算法的总成,这类算法均使用贝叶斯定理为基础,称为贝叶斯分类,朴素贝叶斯是贝叶斯分类中最简单的也是最常见的分类方法其中C叫做类别集合,其中每一个元素是一个类别,而I叫做项集合(特征集合),其中每一个元素是一个待分类项,f叫做分类器。分类算法的任务就是构造分类器f。朴素贝叶斯分类贝叶斯分类公式换个形式具体例子不再详述参考https://zhuanlan.z...原创 2020-05-03 16:11:54 · 169 阅读 · 0 评论 -
机器学习的卷积神经网络(CNN)
本文首发https://blog.csdn.net/qq_25762497/article/details/51052861#%E5%85%A8%E8%BF%9E%E6%8E%A5%E5%B1%82fully-connected-layer**卷积神经网络(CNN)卷积神经网络跟普通的神经网络相似,他们都具有可学习的权重和偏执常量的神经元组成卷积神经网络是具有三维体积的神经元(是比较抽象...原创 2020-05-03 10:53:50 · 912 阅读 · 0 评论 -
深度学习ReLU激活函数
ReLU激活函数在深度学习中,有修正线性单元(Rectified linear unit,ReLU)的激活函数x轴是时间,y轴是放电速度神经元的工作方式:1、稀疏性2、分布性我们开始介绍ReLU激活函数首先,我们来看一下ReLU激活函数的形式从图中可以看出来ReLU函数他是一个分段的函数在一边都让他是0另一边随着数据的增大而变大这种操作被成为单侧抑制。有了单侧抑制,才让神经...原创 2020-05-03 09:49:49 · 1299 阅读 · 0 评论 -
机器 学习
https://blog.csdn.net/amds123/article/details/70173402原创 2020-04-23 09:47:10 · 158 阅读 · 1 评论