机器学习之路
一只小菜皮卡丘
这个作者很懒,什么都没留下…
展开
-
一元线性回归(最小二乘法)
刚开始学习机器学习,记录一下学的算法程序,以后好回顾算法分析假设y = w*x + b, 欲求w、b,最小二乘法就是试图找到一条直线,使所有样本离直线的欧式距离之和最小,按照下图公式也就是要使平方误差最小,通过对w、b的求偏导令偏导数都为零,解得最小二乘法公式程序实现1、导包import numpy as npimport matplotlib.pyplot as plt...原创 2019-06-07 17:29:49 · 2774 阅读 · 0 评论 -
机器学习入门(三)
学习机器学习实战(朴素贝叶斯)第四章原理挺好理解的,但是很多代码让我很不解,感觉和给出的公式并不一样,希望有大佬能给我指明一下先上概率论学过的贝叶斯公式:大致理解,设Ai代表一系列事物特征,Bi代表某一结果,若已知B发生的情况下,Ai的概率,现在想求某种A发生时Bi的概率,就用这个公式。朴素贝叶斯的适用范围,像垃圾邮件分类、分本分类这样二分类或多分类的情况效果较好, 核心思想是选择高...原创 2019-07-13 11:04:07 · 399 阅读 · 0 评论 -
机器学习入门(四)
学习《机器学习实战》(Logistic回归)这一章讲了很多优化算法,记不太清了,也是借着写博客来回顾一下学到的知识这会是激动人心的一章,因为我们将首次接触到最优化算法。 ---- 《机器学习实战》先介绍几个基本概念什么是回归假设现在有一些数据点,我们用一条直线对这些点进行拟合(该线称为最佳拟合直线),这个拟合过程就称作回归。Sigmoid函数为了使函数,接受所有的输入都能预测出0...原创 2019-07-14 09:47:17 · 489 阅读 · 0 评论 -
机器学习入门(一)
学习《机器学习实战》(kNN)暑假要看完这本书,边看边总结, 第二章k近邻算法, 看不懂的地方都注释了kNN通过计算当前数据特征值与数据集中其他所有数据之间的距离,来就近分类,假设有特征(1.0, 0.5, 1.5),数据集中有(0.5, 0.0, 1.0),这两条数据之间的距离就是a\sqrt aa, a = (1.0−0.5)2(1.0-0.5)^2(1.0−0.5)2 + (0.5...原创 2019-07-11 11:37:30 · 515 阅读 · 0 评论 -
机器学习入门(二)
学习《机器学习实战》(决策树)这一章感觉很难,看了两天决策树原理分析决策树也是解决分类问题的,第二章构造决策树用的是ID3算法,无法直接处理数值型数据,而且会有过度匹配的问题,更优的CART算法会在第九章讲到,以后会看到的。决策树分类很像人脑,不断进行权衡,比如银行要给某个人贷款,到底要不要贷款,需要根据这个人的某些特征进行决策,如果这个人有房子,那就给他贷款,否则不给他贷款,这就构成...原创 2019-07-12 14:04:56 · 436 阅读 · 0 评论