![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
颜良文良
深度学习小白
展开
-
【机器学习】numpy库中的repeat结合高维空间的扩展对高维数据进行抽象化理解
在看SiamFC中的Alexnet网络层的源码时,初始化网络时,在初始化匹配模板和weights涉及到高维数据的扩展与组合操作,用到了numpy内部的一些操作函数,这里将自己不熟悉的一些函数通过一个小的demo来进行可视化的理解,深入高维度数组的内部去探索高维数组的内部结构与操作。首先,我们定义两个1维数组,并通过numpy中的meshgrid函数进行扩展操作,具体代码如下:import...原创 2019-06-14 13:06:30 · 586 阅读 · 0 评论 -
【机器学习】Hog特征numpy.bincount函数
#encoding:utf-8import numpy as np#np.bincount()函数x=np.array([2,1,3,4,4,3]) #最大的数4,表示有5个bin,索引0-4, #out[3]=1+1=2,out[4]=1+1=2(统计个数)print(np.bincount(x))#统计每个元素的个数,并在...原创 2019-06-29 11:07:44 · 382 阅读 · 0 评论 -
【机器学习】交叉验证与网格搜索
在进行机器学习算法的调优时,使用交叉验证与网格搜索方式,即遍历我们的超参数,如knn中的k值,深度学习中的学习率,svm中的gamma和c等等。遍历不同的超参数组合,在不同的模型中,每个超参数的组合在通过n(n一般取10)折交叉验证来得到一个模型的平均准确率,取平均准确率最大时对应的超参数为模型的最终结果。 ...原创 2019-07-04 09:46:26 · 1044 阅读 · 0 评论 -
【机器学习】决策树与随机森林模型
决策树:决策树:是一种树形结构,其中每个内部节点(圆形表示特征)表示一个属性上的判断,每个分支(箭头)代表一个判断结果的输出,最后每个叶节点(正方形表示分类的结果)代表一种分类情况,本质是一颗由多个判断节点组成的树。是通过训练数据并根据基尼系数的增益统计而来。 基尼系数表示数据...原创 2019-07-03 17:23:28 · 1315 阅读 · 0 评论 -
【机器学习】线性回归最小二乘法Demo
流程回归问题的流程可以使用如下Demo进行描述: 一般使用最小二乘法作为损失函数: 回归的最终目的是使得损失函数最小,来达到预测的准确率。一般使用梯度下降法来求最小loss。使用均方误差来进行回归性能的评估: ...原创 2019-07-08 11:58:39 · 407 阅读 · 0 评论 -
【机器学习】图解SVM中gamma和c参数的作用
引言上一篇博客主要讲解了一下svm的基本原理,然而在实际工程中解决一些分类问题时,我们需要调整c和gamma的值进行模型的训练,然后根据测试的precision,recall以及f1_score来进行模型的效果的判断。所谓的precision,recall和f1_score所代表的意义如下:precision:表示测试的准确度。具体等于正确预测个数(TP) / 被预测正确的个数(FP+...原创 2019-06-27 00:38:42 · 18732 阅读 · 3 评论 -
【机器学习】一文读懂SVM原理
Introduction首先我们要明确SVM要解决的是一个分类问题,通过一个超平面对多维数据按照特征差异进行分类。首先我们需要思考如下问题:1. 什么样的决策平面才是最好的2. 特征数据本身就很难分该如何解决3. 计算复杂度如何以及适合什么样场景下的应用基于上述问题对svm进行推导。1.决策平面的说明我们通过下图的数据进行辅助理解: ...原创 2019-06-25 22:41:43 · 874 阅读 · 0 评论 -
【机器学习】sklearn数据预处理(降维)
在机器学习的特征预处理过程中,由于存在一些冗余的特征,我们需要对特征进行降维处理以简化机器学习的难度,常用的数据降维的方式有:Filter(过滤式):Variance Threshold、Embedded(嵌入式):正则化,决策树(后续在讲解常用的机器学习算法具体讲解)、PCA主成分分析。1.Variance Threshold如下图,主要是针对特征相同或者该列方差相近时,将该列特征删除(...原创 2019-06-22 09:35:56 · 1988 阅读 · 0 评论 -
【机器学习】sklearn数据预处理(归一化标准化和缺失值处理)
包括数据归一化,标准化以及缺失值处理1.归一化在下图所示四个特征中, 每行组成的四个特征决定了你的label标签值,然而每个label的四个特征影响因素的大小不同,实际应用中,难以看出每个特征的有效决定程度,因此我们对每一列的特征的所有元素进行归一化处理,对每一列数据进行归一化的原因在于同一列数据属于同一种特征,能够代表多个样本(或者label)之间的差异性。 ...原创 2019-06-21 01:32:56 · 3579 阅读 · 0 评论 -
【机器学习】pandas库进行数据处理的常见操作
作为机器学习中进行数据处理的过程中,数据预处理往往是不可或缺的一个阶段,一般通过numpy与pandas库来对数据进行数据的预处理。本博客旨在对pandas库中的常见操作进行总结,具体涉及到的代码如下:import pandas as pdlabel=[1,0,1,0,1] #一维序列data=pd.Series(data=label,index=['a','b','c','e','...原创 2019-06-16 23:35:32 · 508 阅读 · 0 评论 -
【机器学习】朴素贝叶斯模型原理
介绍首先我们需要搞清楚条件概率和联合概率的意思,可以通过下图进行描述: 我们在通过一个图来讲解条件概率的意义: 可知:,即:即为我们的朴素贝叶斯模型Demo我们通过一个小的Demo来理解贝叶斯理论的思想(这里对比了一下knn模型,因此...原创 2019-07-01 11:38:00 · 778 阅读 · 0 评论