机器学习
csdn_LYY
这个作者很懒,什么都没留下…
展开
-
anaconda虚拟环境安装包
anaconda的虚拟环境使用非常方便,但是安装包一直困扰着我。anaconda安装包非常简单,分为两步。第一步,进入虚拟环境。也就是激活虚拟环境。第二步,直接使用pip install安装。安装的时候不用切换目录,任何路径都是没问题的。会默认安装到改安装的地方。这个地方的路径是:env/Lib/site-packages。上面的env是具体的一个环境。也就是说,虚拟环境的包是默认安装在了上面的目录中。所以进入这个目录,便能看见自己的虚拟环境装了什么包。还有一种方法,进入虚拟环境后,使用pip lis原创 2021-07-13 17:02:17 · 836 阅读 · 0 评论 -
核函数,你懂了吗
废话少说,直接上菜。这次的核函数教程,通俗易懂,不懂,包教包会。老规矩,先来符号约定。符号约定:X\boldsymbol{X}X表示样本矩阵。<,><,><,>和∗*∗表示内积乘法有哪些核函数?在机器学习中常用的,常用的,常用的(重要的事情说三遍)核函数,一般有这么几类,也就是LibSVM中自带的这几类。线性核函数,表达式是K(X1,X2)=<X1,X2>=X1∗X2K(\boldsymbol{X_1},\boldsymbol{X_2}原创 2021-07-03 15:14:44 · 512 阅读 · 0 评论 -
机器学习的分类
机器学习按照不同的分类方式,有不同的分类名字。这对刚入门学习的人来说有一定的理解难度。当初,我开始学习的时候,也是不懂,甚至,学了很长时间也是一知半解。基于以上的考虑,我觉得把机器学习的分类写一篇文章,希望能高屋建瓴地对一些入门的人起到一些作用。准备出发,做好了。分类的维度机器学习有不同的分类维度,在本文中涉及的分类维度有:参数模型/非参数模型判别式模型/生成式模型频率学派/贝叶斯学派参数模型/非参数模型参数模型英文名字是parametric model,对应的非参数模型是non-p原创 2021-07-03 15:14:06 · 260 阅读 · 0 评论 -
从人工智能看机器学习
现在人工智能处在风口浪尖,似乎有改变世界的趋势。现在做人工智能方面研究工作的人,甚至不知道人工智能和机器学习的关系,虽然这不影响做机器学习,但是本着探究知识来龙去脉的初衷,我觉得还是有必要了解一下这方面的知识。人工智能的历史概览1950 年, 阿兰· 图灵( Alan Turing) 发表了一篇有着重要影响力的论文《 Computing Machinery and Intelligence》,讨论了创造一种“智能机器”的可能性。由于“智能”一词比较难以定义,他提出了著名的图灵测试:“一个人在不接触对方原创 2021-07-03 15:12:34 · 207 阅读 · 0 评论 -
tensor
import torchtorch Tensortorch.FloatTensora = torch.FloatTensor(2,3)b = torch.FloatTensor([2,3,4,5])print(a)print(b)tensor([[9.2734e-14, 6.3058e-43, 1.4013e-45], [0.0000e+00, 1.7748e+28, 7.9316e+34]])tensor([2., 3., 4., 5.])torch.IntTen原创 2021-07-03 15:12:04 · 128 阅读 · 0 评论 -
极速安装opencv
极速安装opencv:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple opencv-pythonpip install -i https://pypi.tuna.tsinghua.edu.cn/simple opencv-contrib-python原创 2021-07-01 14:25:10 · 104 阅读 · 0 评论 -
高斯分布的差 什么分布
高斯分布的差还是高斯分布。假如X∼N(μx,σx2)X\sim N(\mu_x,\sigma_x^2)X∼N(μx,σx2),Y∼N(μy,σy2)Y\sim N(\mu_y,\sigma_y^2)Y∼N(μy,σy2),那么X−YX-YX−Y服从什么呢?X−Y∼N(μx−μy,σx2+σy2)X-Y\sim N(\mu_x-\mu_y,\sigma_x^2+\sigma_y^2)X−Y∼N(μx−μy,σx2+σy2)。高斯分布的差服从高斯分布,均值是两个均值的差,方差是两个方差的和原创 2021-06-20 11:52:43 · 1766 阅读 · 0 评论 -
中心和非中心卡方分布
卡方分布有两种,第一种是中心卡方分布,第二种是非中心卡方分布。中心卡方分布中心卡方分布是最简单的。那什么是中心卡方分布呢?假如有nnn个服从标准正态分布的随机变量,分别是z1,z2,...,zn∼N(0,1)z_1,z_2,...,z_n\sim N(0,1)z1,z2,...,zn∼N(0,1),这些随机变量的平方和的分布服从中心卡方分布,即z12+z22+...+zn2∼X2(n)z_1^2+z_2^2+...+z_n^2\sim \mathcal{X}^2(n)z12+z22+..原创 2021-06-18 15:56:44 · 7627 阅读 · 0 评论 -
指数分布,卡方分布和伽马分布
指数分布和卡方分布都是伽马分布的一种特殊情况。伽马分布伽马分布一般用符号:X∼Γ(α,β)X\sim \Gamma(\alpha,\beta)X∼Γ(α,β),概率密度函数如下所示。f(x)={1βαΓ(α)xα−1e−xβ,x>00,x≤0\begin{aligned}f(x)=\left\{\begin{aligned} &\frac{1}{\beta^{\alpha}\Gamma(\alpha)}x^{\alpha-1}e^{-\frac{x}{\beta}},x>0原创 2021-06-17 16:55:59 · 17629 阅读 · 3 评论 -
泊松分布和指数分布,包你学会
当你学习指数分布的时候,经常会看到泊松分布的身影,网上的大部分教程讲的非常复杂,看完之后还是一头雾水。本文本着通俗易懂的原则,使用生活中的例子,说明泊松分布和指数分布的关系。一下子学会了两种分布,有没有很有成就感?泊松分布在日常生活中,许多事件是有一定的频率的,比如下面的例子。某公司平均每一小时接到三个用户电话。某超市平均每五小时卖掉一个玩具。一个网站平均每一分钟有二次访问。你有没有发现上面事件的一些共同点?细心的你会发现,上面的事件,只能估计事件发生的总数,但是不能知道具体发生的时间。如原创 2021-06-16 12:07:21 · 2749 阅读 · 0 评论 -
人工智能的发展历史概览
进入新世纪以来,人工智能在经历了一次史上最长停滞期之后,终于又一次迎来了它的时代。一次真正属于它的时代。在本文,我将带领大家领略一下人工智能在历史上的发展历程,从宏观上对人工智能有一个大体的认识,跟上时代发展的步伐。人工智能的提出人工智能是在1956年作为一门新兴学科的名称正式提出的,自此之后,尽管有一些大起大落,但是到现在,它已经获得了迅速的发展,并且正在改变人类的社会的方方面面。1956-1969年是人工智能这个概念的提出和形成阶段。1956年夏季,由当时达特茅斯大学的年轻数学助教、现任斯坦福大原创 2021-05-17 11:54:26 · 7207 阅读 · 0 评论 -
概率和似然,终于懂了
不知道读者您有没有这样的感觉,有些很简单的东西,如果自己没有花心思去学,也会感觉很难,正所谓会者不难,难者不会。概率和似然,尤其是似然,把自己搞的是云里雾里,虽然自己学了《概率论与数理统计》,但是由于长时间没有用,已经忘的差不多了。如果你也对似然有疑问或者不理解,那么别犹豫了,往下读便是了。老规矩,先来符号约定。符号约定:NNN表示样本数。ppp表示样本的维度,也叫特征数。θ\boldsymbol{\theta}θ表示参数向量。X\boldsymbol{X}X表示样本矩阵。PPP表示概率原创 2021-07-03 15:13:26 · 6678 阅读 · 2 评论 -
机器学习原理系列之序言
一直以来,总有写一个机器学习原理系列文章讲解的冲动。但是苦于时间和精力有限,一拖再拖,我迟迟没有行动。我接下来尝试挤出时间去写一系列的关于机器学习原理方面的文章。为什么会有写机器学习原理的冲动?我现在非常急迫地有学习机器学习原理知识的冲动。学习知识,必须知其然,也必须知其所以然。这才是学习的很好的方式。学习一种知识,我现在会去触摸到其本质。还有,把自己学习的知识记录下来,不仅会把自己学的知识做个记录,还能帮一帮一些正在入门的读者。本系列文章的定位?通俗易懂的原理讲解。这是对本系列文章的定位。原创 2021-05-03 12:00:20 · 87 阅读 · 0 评论 -
特征缩放之特征归一化和特征标准化的联系和区别
前言特征缩放,feature scaling,许多人知道特征缩放的作用,但是却对它的分类归一化和标准化理解的不透彻。关于这方面,我推荐一篇英文文章,如果自己学有余力,不妨看看英文的原文,如果时间不够,不妨接着看下去,我会以通俗易懂的语言阐释特征缩放的归一化和标准化。英文原文地址:特征缩放,一文读懂为什么要使用特征缩放?数据如果不经过处理,直接送入算法,会面临下面的问题。数据的每个维度的特征的取值范围不一样,例如有的取值为1000-10000,有的取值为0-1,这种情况,会使得算法对这些特征的处理原创 2021-03-24 15:23:46 · 224 阅读 · 0 评论 -
sklearn中的特征归一化函数
特征标准化,特征归一化,总体来说,他们的目的是实现特征的缩放。由于中文翻译的原因,网上对它们的解释也是五花八门,但其实我们不考虑它们的名字,直接看它们的作用和操作方法,可能会更容易理解。使用特征缩放的作用是:使不同量纲的特征处于同一数值量级,减少方差大的特征的影响,使模型更准确。 加快学习算法的收敛速度。他们之间的作用分别是:缩放过程可以分为以下几种:缩放到均值为0,方差为1(Standardization——StandardScaler()) 缩放到0和1之间(Standardi原创 2021-03-24 14:18:29 · 573 阅读 · 0 评论 -
seaborn的countplot函数
seaborn中有个函数是countplot,这是画直方图的。如果标签是类别的话,如有3类,则使用如下函数,画出类别的分布图:import seaborn as snssns.countplot('label')原创 2021-03-24 14:08:30 · 1909 阅读 · 0 评论 -
Pandas DataFrame的pop()方法
如果数据集中包括了数据和标签列,则使用pandas 数据帧的pop函数很方便的实现数据和标签列的分离。pop函数会把标签列弹出数据帧,数据帧不再包括标签列。原创 2021-03-24 12:06:19 · 922 阅读 · 0 评论 -
在anaconda虚拟环境中安装jupyter
安装完anaconda之后,在进行工程实践的时候,最好使用虚拟环境,这时候新建一个虚拟环境,命令是:conda create -n env_name python=3.6上面的命令建立一个名字为env_name的虚拟环境,安装python的版本是3.6。虚拟环境安装好后,发现没有安装jupyter,安装命令是:conda install nb_conda安装完后,在虚拟环境中输入jupyter notebook,会打开jupyter。...原创 2021-03-13 11:49:59 · 2023 阅读 · 2 评论 -
matplotlib设置无框图例
在使用python的matplotlib画图的时候,如何设置图例没有框?下面是例子。plt.legend(frameon=False,loc="upper left",fontsize='large') #设置图例无边框,将图例放在左上角其中的frameon是设置有无框的参数。...原创 2021-02-24 11:32:38 · 3122 阅读 · 0 评论 -
matplotlib画图的marker太密集
在使用matplotlib的plot画图的时候,为了更明显的看到每个点,会使用marker参数,但是有时候会产生marker点太密集的情况,例如能不能隔一段显示一个marker点呢?答案是有的。在plot函数里面使用一个参数:plot(x,y,marker='o',markevery=5)很方便。...原创 2021-02-23 11:39:53 · 3016 阅读 · 3 评论 -
Pandas:透视表(pivotTab)和交叉表(crossTab)
转载地址https://blog.csdn.net/bqw18744018044/article/details/80015840转载 2021-01-06 10:37:28 · 168 阅读 · 0 评论 -
pandas的groupby函数
转载地址:https://blog.csdn.net/qq_27736687/article/details/87294000转载 2020-12-01 14:57:53 · 103 阅读 · 0 评论 -
sklearn中的roc curve函数
转载地址https://blog.csdn.net/w1301100424/article/details/84546194转载 2020-10-29 16:05:10 · 716 阅读 · 0 评论 -
roc曲线介绍
转载地址https://zhuanlan.zhihu.com/p/26293316转载 2020-10-29 14:41:00 · 273 阅读 · 0 评论 -
python里面读取文件和保存文件的路径
python的pandas和numpy在读取或者保存文件的时候,必须使用绝对路径,而且形式上也有要求。下面是例子。data=pd.read_csv('E:\\a\\b\\data.csv')np.savetxt('E:\\a\\b\\data.csv',data,delimiter=',')原创 2020-10-21 19:14:37 · 2745 阅读 · 0 评论 -
频率学派和贝叶斯学派的联系和区别
转载地址https://www.cnblogs.com/Epir/p/13117772.html转载 2020-10-19 11:22:08 · 184 阅读 · 0 评论 -
机器学习入门
转载地址https://www.jianshu.com/p/1549fa49bfbe转载 2020-10-19 11:15:04 · 95 阅读 · 1 评论 -
频率学派和贝叶斯学派的联系和区别
转载地址https://www.jianshu.com/p/53c087dd2443转载 2020-10-19 11:04:26 · 218 阅读 · 0 评论 -
频率学派和贝叶斯学派的联系和区别
转载地址https://blog.csdn.net/u011508640/article/details/72815981转载 2020-10-19 09:00:30 · 302 阅读 · 0 评论 -
numpy矩阵拼接
转载地址https://www.cnblogs.com/loubin/p/11358823.html转载 2020-09-21 11:23:27 · 498 阅读 · 0 评论 -
svm详细过程
转载地址https://blog.csdn.net/u013019431/article/details/79952483转载 2020-09-19 13:38:22 · 1546 阅读 · 0 评论 -
梯度下降算法的详细讲解
梯度下降是机器学习中常用的优化参数的方法,过程是通过优化目标函数,得到最优参数。首先说明一点,例如把目标函数记做:f(w,b),其中的w和b便是目标函数的参数。这和中学学的函数如f(x)是一样一样的。在f(x)中,x是自变量。在f(w,b)中,w和b是自变量。并没有什么不一样。例如,y=x^2,这是抛物线,函数值随着自变量的改变而改变。同理,f(w,b),是高维函数,函数值随着自变量w和b的改变而改变。梯度下降的目标是找到使得函数值最小(在一定条件下,如最大循环次数或者阈值)的自变量的值。原创 2020-09-18 14:08:49 · 876 阅读 · 0 评论 -
详细讲解梯度下降
转载地址:https://www.cnblogs.com/pinard/p/5970503.html转载 2020-09-16 15:41:05 · 100 阅读 · 0 评论 -
lssvm和wlssvm详细讲解
转载地址lssvm:https://blog.csdn.net/Luqiang_Shi/article/details/84204636wlssvm:https://blog.csdn.net/Luqiang_Shi/article/details/84402375转载 2020-09-03 13:39:35 · 915 阅读 · 0 评论 -
判断数据是线性还是非线性
转载地址:https://blog.csdn.net/weixin_42137700/article/details/86060381转载 2020-09-03 10:19:53 · 2211 阅读 · 0 评论 -
如何判断数据线性还是非线性
转载地址:https://blog.csdn.net/u013300875/article/details/44081067转载 2020-09-03 10:14:04 · 5971 阅读 · 0 评论 -
sklearn的svm详细教程
转载地址:https://www.cnblogs.com/pinard/p/6117515.html转载 2020-09-03 09:57:05 · 679 阅读 · 0 评论 -
维度灾难
转载地址:https://blog.csdn.net/ustbbsy/article/details/80961157转载 2020-08-22 13:32:23 · 220 阅读 · 0 评论 -
逻辑回归详细
转载地址:https://www.cnblogs.com/Luv-GEM/p/10674719.html转载 2020-08-14 16:11:15 · 118 阅读 · 0 评论 -
强化学习的分类方法
总体认识强化学习是很大的概念,他包含了很多种算法,我们也会一一提到其中一些比较有名的算法,比如有通过行为的价值来选取特定行为的方法,包括使用表格学习的Q Learning方法,sarsa等,使用神经网络学习的Deep Q Network,还有直接输出行为的policy gradients,又或者了解所处的环境,建模出一个虚拟的环境并从虚拟的环境中学习等等。了解强化学习中常用到的几种方法,以及...原创 2020-01-11 10:49:41 · 3796 阅读 · 0 评论