机器学习
玉米味土豆片
在路上
展开
-
目标检测——opencv cascade训练的一般使用流程与常见问题
opencv在2.4.0之后推出了能够支持HAAR、LBP、HOG三种特征的供cascade分类算法训练的程序,可以在opencv的bin文件目录下找到该opencv_traincascade.exe程序以及用来创建样本的opencv_createsamples.exe程序。(当然opencv也保留了之前只支持harr特征训练的opencv_haartraining.exe)训...原创 2018-03-26 13:31:01 · 4016 阅读 · 6 评论 -
Haar特征提取算法的实现
【自己动手,丰衣食足】系列 Haar特征是一种很早就被提出的图像特征提取算法,后面还经过了几次改进。Haar特征能够很好地运用于人脸识别技术,当然很多目标检测技术中对目标图像的特征提取也可以使用Haar特征。当我们使用opencv自带的cascade分类器时可以选择Haar特征作为训练样本数据的特征描述子,然后将特征描述子作为样本数据送入cascade分类器中,就可以通过Adab...原创 2018-04-17 16:45:12 · 9517 阅读 · 17 评论 -
用Python实现KNN分类算法
KNN分类算法应该算得上是机器学习中最简单的分类算法了,所谓KNN即为K-NearestNeighbor(K个最邻近样本节点)。在进行分类之前KNN分类器会读取较多数量带有分类标签的样本数据作为分类的参照数据,当它对类别未知的样本进行分类时,会计算当前样本与所有参照样本的差异大小;该差异大小是通过数据点在样本特征的多维度空间中的距离来进行衡量的,也就是说,如果两个样本点在在其特征数据多维度空间中...原创 2018-05-02 14:45:34 · 1289 阅读 · 0 评论 -
线性回归原理及实现(一):最小二乘法
线性回归到底要干什么,顾名思义很简单,即在已有数据集上通过构建一个线性的模型来拟合该数据集特征向量的各个分量之间的关系,对于需要预测结果的新数据,我们利用已经拟合好的线性模型来预测其结果。关于线性回归的方法,现在使用得比较广泛的就是梯度下降和最小二乘法;我打算把最小二乘法和梯度下降分两篇博客来写,这篇就来说一说我对线性回归及最小二乘法的理解以及原理实现。线性...原创 2018-05-18 21:19:16 · 44408 阅读 · 5 评论 -
线性回归原理及实现(二):梯度下降法
之前我写的一篇博客《线性回归原理及实现(一):最小二乘法》写了有关线性回归的基本原理和应用场景的内容,提到了两个实现线性模型回归的方法:最小二乘法和梯度下降,并给出了最小二乘法的推导和python实现代码;这篇博客则是承接上一篇没有写完的内容,主要写线性回归的梯度下降法的原理和代码实现。其实梯度下降非常容易理解,如果将损失函数的分布简化理解成一张凹凸不平的曲面,那么梯度下降的过程就有点像我们郊游爬...原创 2018-06-07 13:31:43 · 1271 阅读 · 1 评论 -
ADAS:可行驶区域检测
该博客转自https://blog.csdn.net/liaojiacai/article/details/77211692 车辆的可行驶区域包括了结构化的路面、半结构化的路面、非结构化的路面。结构化的路面一般是有道路边缘线,路面结构单一,比如城市主干道,高速、国道、省道等,这个路面的结构层执行一定的标准,面层的颜色和材质统一。半结构化的路面是指一般的非标准化的路面,路面面层是颜色和材质差异较...转载 2018-11-05 21:04:42 · 4925 阅读 · 0 评论 -
tensorflow重要概念与常用函数总结
计算图: tensorflow中所有的计算都会被转化为计算图上的节点,节点之间的边描述了运算之间的依赖关系。tensorflow程序一般都分为定义计算图和执行计算两个阶段。不同计算图上的张量和运算都不会共享。tf.get_default_graph()#获取当前默认的计算图tf.Graph()#生成新的计算图g1=tf.Graph() 张量: tensorfl...原创 2019-03-27 22:44:37 · 245 阅读 · 0 评论 -
神经网络:线性模型与非线性模型(Mnist手写体图像分类)
神经网络中提到的线性模型与非线性模型之间的区别就体现在字面意思上:线性模型即仅通过对输入进行线性变换得到输出的网络模型,我们知道在线性代数中矩阵的相乘就是一种线性变换,根据矩阵乘法的结合律可知:一个矩阵依次与多个矩阵相乘等价于这个矩阵乘上这多个矩阵的乘积;类似的,任意线性模型的组合还是线性模型,也就是说,只通过线性变换,任意层的全连接神经网络和单层神经网络的表达能力没有区别。由于线性模...原创 2019-04-29 15:53:04 · 5310 阅读 · 0 评论