机器学习
Blessy_Zhu
希望一起交流
展开
-
机器学习笔记(一)-线性回归
在概率引入到机器学习之后,就可以从两个角度:频率角度和贝叶斯角度来讨论问题。其中频率派逐渐发展为统计机器学习;贝叶斯派逐渐发展为概率图模型。今天介绍的Linear Regrssion线性回归分析,在统计机器学习中占据了核心地位,为什么呢?因为它是最基础、最简单的统计机器学习模型。原创 2019-04-18 14:19:09 · 2219 阅读 · 4 评论 -
什么是机器学习
转载:博文计算机的潜意识之从机器学习谈起,原文请点击链接(https://www.cnblogs.com/subconscious/p/4107357.html)强烈推荐一篇关于机器学习入门导论的博文,里面的内容非常详实,加上作者的理解和感悟精华出来的一篇佳作。我从里面抽取出一些重点的内容,在此记录,强烈推荐大家,点击访问上面的那篇文章。1 机器学习的定义从广义上来说,机器学习是一种能够赋...原创 2019-06-10 19:43:02 · 31912 阅读 · 4 评论 -
机器学习(十二)-基于规则的分类器
本文主要介绍给予规则的分类器的相关内容原创 2019-06-11 09:22:47 · 23385 阅读 · 4 评论 -
机器学习(十五)-DBSCAN算法及Python实例
DBSCAN(Density-Based Spatial Clustering of Applications with Noise)是一个比较有代表性的基于密度的聚类算法。与划分和层次聚类方法不同,它将簇定义为密度相连的点的最大集合,能够把具有足够高密度的区域划分为簇,并可在噪声的空间数据库中发现任意形状的聚类。什么是基于密度的聚类算法?直白翻译就是带有噪声应用的基于密度的空间聚类。原创 2019-06-20 22:44:45 · 11949 阅读 · 5 评论 -
机器学习---有监督和无监督
监督学习就是:训练的数据包含已知结果,模型相对这些结果进行训练;无监督学习:训练数据不包含任何已知结果。算法自行发现数据中的联系。原创 2019-06-24 16:27:59 · 3074 阅读 · 0 评论 -
BP(Back Propagation)神经网络学习笔记
BP神经网络算法是在BP神经网络现有算法的基础上提出的,是通过任意选定一组权值,将给定的目标输出直接作为线性方程的代数和来建立线性方程组,解得待求权,不存在传统方法的局部极小及收敛速度慢的问题,且更易理解。原创 2019-07-04 19:11:06 · 62720 阅读 · 11 评论 -
ANN人工神经网络(Artificial Neuron Network )
这篇内容分别介绍了MP神经元模型、单层神经网络、两层神经网络和常见的激活函数。内容翔实,理解起来较为简单原创 2019-06-25 16:43:28 · 15867 阅读 · 5 评论 -
从感知机到深度学习发展史
本篇文章主要介绍了从机器学习到深度学习,从感知机到深度学习的内容。原创 2019-06-12 21:39:51 · 5606 阅读 · 1 评论 -
径向基(Radial Basis Function:RBF)神经网络学习笔记
RBF神经网络是为了解决大部分基于反向传播的多层前馈网络的学习算法必须基于某种非线性优化技术的缺点 ,计算量大、学习速度慢的问题。RBF通过使用高斯和函数的方法,使得,网络由输入到输出的映射是非线性的,而网络输出对可调参数而言却又是线性的。网络的权就可由线性方程组直接解出,从而大大加快学习速度并避免局部极小问题。原创 2019-07-12 16:47:33 · 31628 阅读 · 6 评论 -
从全连接神经网络FCN到LSTM
本文主要介绍了深度学习的发展:从感知机、Fisher判别分析,到全连接神经网络、BP神经网络、CNN、RNN、SLTM等等原创 2019-09-25 21:12:58 · 6199 阅读 · 1 评论 -
机器学习(十一)-Naïve Bayes Classifier朴素贝叶斯分类器及Python实现
朴素贝叶斯分类是一种十分简单的分类算法,叫它朴素贝叶斯分类是因为这种方法的思想真的很朴素。朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类**别。尽管这些特征相互依赖或者有些特征由其他特征决定,然而朴素贝叶斯分类器认为这些属性是独立的(独立性假设)。对于某些类型的概率模型,在监督式学**习的样本集中能获取得非常好的分类效果。原创 2019-06-04 10:04:08 · 9440 阅读 · 0 评论 -
机器学习笔记(六)-支持向量机SVM
本篇内容主要介绍了SVM支持向量机,分别介绍了Hard-Margin SVM中的凸优化、KKT约束、对偶化问题,而且还介绍了Soft-margin SVM的思想,并对SVM的Hard-Margin模型进行验证。这篇文章就到这里了,欢迎大佬们多批评指正,也欢迎大家积极评论多多交流。原创 2019-04-27 22:21:40 · 1829 阅读 · 2 评论 -
机器学习笔记(三)-线性判别分析
在文章[机器学习笔记(一)-线性回归](https://blog.csdn.net/weixin_42555080/article/details/89357470)中已经介绍了线性回归,文中提到,线性回归是最基本最简单的机器学习算法,但是,在打破线性回归的某一特性时会出现新的算法。正如文章[机器学习笔记(二)-感知机](https://blog.csdn.net/weixin_42555080/article/details/89412841)中介绍的感知机,它是打破了线性中的全局非线性这一性质——它是将原创 2019-04-24 11:40:39 · 7392 阅读 · 6 评论 -
机器学习笔记(七)-主成分分析PCA
这篇博文主要介绍了,PCA主成分分析。首先通过几何概念引出维度爆炸带来的问题,接下来通过PCA数据降维来解决之。在主讲PCA内容时主要介绍了:经典主成分分析、最大投影方差、最小重构距离,SVD奇异值分解。最后通过Python实现PCA。这篇文章就到这里了,欢迎大佬们多批评指正,也欢迎大家积极评论多多交流。原创 2019-04-28 20:55:58 · 6035 阅读 · 4 评论 -
机器学习笔记(二)-感知机
在文章[机器学习笔记-线性回归](https://blog.csdn.net/weixin_42555080/article/details/89357470)中的前言部分已经介绍了,当打破线性回归的某一特性,就会形成新的模型算法,这篇文章介绍的感知机就是尝试打破了线性中的全局非线性这一性质——它是将线性回归得出的值,作为激励函数的输入,进而进行二分类的一种算法。原创 2019-04-20 11:50:20 · 2241 阅读 · 2 评论 -
机器学习笔记(四)-逻辑回归
逻辑回归算法讲解与实现原创 2019-04-24 21:59:17 · 2668 阅读 · 2 评论 -
机器学习笔记(五)-高斯判别分析
在机器学习笔记(四)-逻辑回归中已经介绍了,软分类又分为概率判别模型:为代表的模型是逻辑回归;还有概率生成模型,为代表的是高斯判别分析(GDA:Guassian Discrimant Analysis)。GDA是本文的主角。本文主要是对GDA算法学习和Python验证原创 2019-04-25 10:26:22 · 4855 阅读 · 4 评论 -
机器学习笔记(八)-PCA降维Wine Data Set详细过程
在上一篇博文[机器学习笔记(七)-主成分分析PCA](https://blog.csdn.net/weixin_42555080/article/details/89633287) 中,已经介绍了主成分分析PCA的基本内容。接下来的这篇文章,主要是通过一个多维的数据集,一步步去了解PCA的实现过程和原理。最后通过逻辑回归来拟合用PCA降维处理后的数据集。原创 2019-05-12 22:42:36 · 8836 阅读 · 3 评论 -
机器学习(九)-k-means算法及优化和Python
K-means算法是很典型的基于距离的聚类算法,采用距离 作为相似性的评价指标,即认为两个对象的距离越近,其相似度就越大。该算法认为簇是由距离靠近的对象组成的,因此把得到紧凑且独立的簇作为最终目标。 k-means算法特点在于:同一聚类的簇内的对象相似度较高;而不同聚类的簇内的对象相似度较小原创 2019-05-29 16:05:42 · 11938 阅读 · 1 评论 -
机器学习(十)-KNN算法及Python实现
KNN算法是一个理论上比较成熟的方法,最初由Cover和Hart于1968年提出,其思路非常简单直观,易于快速实现,以及错误低的优点。k-近邻算法(kNN,k-NearestNeighbor),是最简单的机器学习分类算法之一,其核心思想在于用距离目标最近的k个样本数据的分类来代表目标的分类(这k个样本数据和目标数据最为相似)。原创 2019-06-02 09:56:09 · 8321 阅读 · 0 评论 -
LSTM学习
学习LSTM需要通过五大问题来全面的理解:为什么会出现LSTM?LSTM是怎么解决RNN梯度消失的问题的?LSTM的主要内容是什么?LSTM如何代码实现?LSTM现在发展到什么地步(即有哪些变体)?通过这五个问题,了解LSTM的前世今生。原创 2019-09-30 21:44:56 · 3862 阅读 · 0 评论