![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习&深度学习实践(python版)系列
Sunshine_in_Moon
对计算机视觉,深度学习方向很感兴趣,愿意和大家分享。现在学习大规模人脸识别,人脸检测等相关工作,希望得到大家的帮助!
展开
-
机器学习&深度学习实践(python版)系列----Linear Regression(线性回归)
今天和一位师兄决定复习一下Andrew Ng的机器学习和深度学习教程理论知识,用Python实现教程中的练习。教程分为:机器学习:http://openclassroom.stanford.edu/MainFolder/CoursePage.php?course=MachineLearning深度学习:http://ufldl.stanford.edu/wiki/index.php/UFL原创 2015-12-11 14:33:05 · 7183 阅读 · 1 评论 -
机器学习----SVM(1)
以前觉得SVM没有什么,就是计算一个分类超平面而已,但是最近深入学习研究,才发现里面的理论太深了。不过还好,有位大牛的博客帮了很大的忙。强烈推荐大家仔细研究这篇博客,我的博客是在我对了这篇博客后自己的理解,也可以说是大牛博客的精简版。大牛的博客分成了三部分,层层递进。为了便于大家理解,我将三部分分成了三篇博客,同时对原博客的讲解内容和顺序做了一些调整。说了这么多还没给出大牛的博客链接:http转载 2016-05-04 15:39:49 · 2664 阅读 · 1 评论 -
机器学习----Softmax回归
本篇博客主要是参考吴恩达教授的Ufldl教程,教程链接如下:http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92OK!开启,本次的学习之旅吧! 1、Softmax回归解决什么问题呢?通过前面的学习,我们知道线性回归解决的连续值的预测,逻辑回归解决的是离散值的预测,而且针对二分类问题。那么问题来了,原创 2016-04-30 16:59:27 · 6526 阅读 · 2 评论 -
机器学习----逻辑回归
上一篇讲的是线性回归,这一篇讲逻辑回归。这两者有什么区别呢?简单的说一个是预测连续值,一个是预测离散值。线性回归由于最后得到的是一个预测函数,因此可以预测连续值,逻辑回归是一个分类器,最后输出的是类别。 逻辑回归主要针对的是二分类问题,即分类结果只有{0,1}两类。所以我们很自然的想到如果我们的预测函数的输出范围在0-1之间,然后在0-1之间选定一个阈值,预测值小于阈值的认为是0原创 2016-04-29 15:05:41 · 1654 阅读 · 0 评论 -
机器学习----线性回归
前段时间其实已经写过三篇关于回归类问题的博客,但是那三篇主要注重的是代码练习。本篇博客注重的理论分析。而且对各类回归问题做一个总结,包括一元线性回归,多元线性回归,逻辑回归,岭回归,softmax回归。以前在学习的时候感觉这部分很通畅,没遇到什么大问题,但是昨天复习的时候竟然被几个简单概念给卡主了,最后还是开了吴恩达教授的视频才恍然大悟的,哎正不知道该说什么了。在正式分析之前,先简单讲几个概念原创 2016-04-29 11:39:12 · 1963 阅读 · 2 评论 -
机器学习算法----贝叶斯网络
本文转自:http://www.cnblogs.com/leoo2sk/archive/2010/09/18/bayes-network.html原文作者:张洋说实话贝叶斯网络还没有完全搞懂,在这里只给大家一个简单的解释。1.1、摘要 在上一篇文章中我们讨论了朴素贝叶斯分类。朴素贝叶斯分类有一个限制条件,就是特征属性必须有条件独立或基本独立(实际上在现实应用中几乎转载 2016-04-28 17:33:22 · 5804 阅读 · 0 评论 -
机器学习系列----决策树
本来想自己写点东西,但是网上发现一片博客,写的通俗易懂,因此又偷懒了。先把大牛的博客连接给大家:http://www.cnblogs.com/leoo2sk/archive/2010/09/19/decision-tree.html 决策树的原理很简单,但是当我自己编程的时候,发现碰到了很多问题。读了这篇博客,发现原来是自己对ID3算法的一些细节没有弄懂。我会在原文的基础加上自己的转载 2016-04-28 11:52:04 · 723 阅读 · 0 评论 -
机器学习系列----KNN算法
今天,介绍KNN算法。KNN是机器学习算法中相对简单的一种算法,非常容易理解。 KNN的全称是K-Nearest Neighbor,也称之为K最近邻算法。在网上搜索了很多资料,但是觉得讲的都不太通俗。下面这个个人觉得讲的还是比较通俗易懂的。 KNN算法的基本思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类原创 2016-04-27 17:17:10 · 696 阅读 · 0 评论 -
机器学习系列----准备知识(1)
机器学习已经很久没有复习了,这周开始准备复习一下机器学习的算法。主要参考了机器学习实战这本书,慢慢填坑吧!磨刀不误砍柴工,先补补准备知识。今天这篇博客主要介绍下,分类和聚类的区别。 分类( Classification) 分类的目的是学会一个分类函数或分类模型(也常常称作分类器),该模型能把数据库中的数据项映射到给定类别中的某一个类中。它找出描述并区分数据类或概念的模型(或函数原创 2016-04-27 14:59:34 · 681 阅读 · 0 评论 -
机器学习&深度学习(Python版)----Logistic Regression(逻辑回归)
这一节我们实践逻辑回归,哎又折腾了一番。废话少说!教程链接:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=MachineLearning&doc=exercises/ex4/ex4.html1、理论(1)数据加载,绘制数据数据加载的代码和前两篇博客没有什么不同,可以去第一篇博客查找代码,加载原创 2015-12-13 13:12:35 · 2584 阅读 · 0 评论 -
机器学习&深度学习实践(Python版)----Multivariate Linear Regression(多元线性回归)
上一篇博客讲到了线性回归,这一篇我们来讲一讲多远线性回归。我个人看来这两者没有什么本质的区别,无非是特征的数量不同。线性回归只有一个特征,就是X是一维的,而多元线性回归特征是多维的。两者的计算公式也相同。教程连接:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=MachineLearning&doc=ex原创 2015-12-12 13:47:27 · 3348 阅读 · 0 评论 -
机器学习----SVM(3)核函数
本文主要参考了了博客:http://blog.pluskid.org/?p=685 更详细的讲解可以参考原博客。 1、为什么引入核函数呢? 为了回答这个问题,我们先来说明什么是线性不可分数据。如下左图所示,如果数据能用一条直线或一个超平面分开的数据,就是线性不可分数据。那么什么是线性不可分数据呢?如下右图所示,我们无法用一条直线或一个超平面分开的数据。原创 2016-05-05 14:52:02 · 4941 阅读 · 0 评论