机器学习
文章平均质量分 96
西瓜皮装猕猴桃
这个作者很懒,什么都没留下…
展开
-
Linear Discriminant Analysis(LDA)
在颓废了一段时间后,我内心是自责不安~~,决定重新踏上量子机器学习的康庄大道,由于近期学习的一篇论文里面涉及到一些机器学习算法,为了能将论文顺利看懂,“被逼”学习LDA,这也算是比较高阶的机器学习算法了,之前也从未接触过过,下面做出详解!线性判别分析LDA一 . LDA简介二 . 算法推导三 . 小项目练习一 . LDA简介之前的博客学习中,我们接触过PCA主成分分析法,它是一种常见的数据降维算法,而本次我们重点介绍的LDA在某种程度上和PCA有着异曲同工之妙:线性判别分析(LDA)最常在模式分类和原创 2021-03-20 11:35:39 · 844 阅读 · 0 评论 -
机器学习入门之逻辑回归——全网最详细(下)
紧接着上次机器学习博客的内容!戳这里可以从头看!逻辑回归 Logistic Regression一. 小测试二 . 决策边界一. 小测试上次博客的结尾,我们根据前面的分析给出了逻辑回归算法中最主要得到代码,那么下面我们用上期博客留下来的代码测试一下这个算法的可行性,还是以鸢尾花数据集为例:既然是测试嘛,数据就不要那么庞大了,简单一点就好!import numpy as np import matplotlib.pyplot as pltfrom sklearn import datasets原创 2020-10-25 10:33:39 · 417 阅读 · 0 评论 -
机器学习入门之逻辑回归——全网最详细(上)
本次的机器学习博客主要内容是机器学习中非常著名的逻辑回归算法已经相关问题,分为上下两篇博客,并且会附上完整的数学推导和证明,希望大家在能成功地从坑里面爬出来!逻辑回归 Logistic Regression一 .初步理解二级目录三级目录一 .初步理解无论是在机器学习上刚入门不久的小可爱,还是资深的大佬,线性回归的问题已经老生常谈了,至少也应当是耳熟能详,那么仅与 “线性” 回归具有一字之差的逻辑回归是啥样的呢?和线性回归之间又有怎样的爱恨情仇呢?y^=f(x)\hat{y}=f(x)y^=f(x)原创 2020-10-16 20:17:18 · 480 阅读 · 0 评论 -
张量分解之 代码实现篇(持续更新)
奇异值分解及图像应用若果想知道特征值,奇异值的介绍,数学原理,推导等等。。猛戳这里~~上代码import numpy as np# 实对称矩阵AA = np.array([[1, 2, 3], [2, 4, 5], [3, 5, 6]])print('A shape: {}'.format(A.shape))# 计算A的特征值和特征向量eig_values, U = np.linalg.eig(A)print("eigenval原创 2020-07-20 09:27:20 · 2709 阅读 · 1 评论 -
多项式回归与模型泛化(中)
本人和机器学习已经久违了,暑假难得有时间,来学一学并和大家分享,希望小伙伴们不吝赐教!模型泛化一. 过拟合与欠拟合一. 过拟合与欠拟合我们实际希望的,是在新样本上能表现得很好的学习器。为了达到这个目的,应该从训练样本中尽可能选出适用于所有潜在样本的“普遍规律”,这样才能在遇到新样本时做出正确的判别.然而,当学习器把训练样本学得“太好”了的时候,很可能巳经把训练样本自身的一些特点当作了所有潜在样本都会具有的一般性质,这样就会导致泛化性能下降,这种现象在机器学习中称为“过拟合” 。 与"过拟合"相对的是“原创 2020-07-01 11:51:28 · 252 阅读 · 0 评论 -
机器学习之PCA原理入门
PCAimport numpy as npimport matplotlib.pyplot as pltX=np.empty((100,2))X[:,0] = np.random.uniform(0.,100.,size=100)X[:,1] = 0.75 * X[:,0] + 3. + np.random.normal(0.,10.,size=100)def demean(X):...原创 2020-03-21 11:33:01 · 443 阅读 · 0 评论 -
多项式回归与模型泛化(上)
多项式回归与模型泛化一 . 一个简单的小例子一入计科深似海,从此头发是路人!这个多项式回归是建立在已经熟练掌握机器学习中的线性回归基础之上的进一步关于回归曲线方法的学习,需要有有一定的sklearn基础,不过本人也会为大家做好详细的注释,希望大家能够喜欢!一 . 一个简单的小例子...原创 2020-05-20 11:54:16 · 341 阅读 · 0 评论