机器学习
文章平均质量分 66
959y
奋斗ing
展开
-
深度学习领域最新的技术(CV、NLP)
文章目录一. 计算机视觉(CV)1.BigGAN的发布2. Fast.ai的模型18分钟内在ImageNet上被训练3.vid2vid技术5. styleGAN6.autoML2019趋势展望二. 自然语言处理(NLP)1.ULMFiT2.ELMO3.BERT4.PyText2019年NLP趋势:人工智能正在日益渗透到所有的技术领域。而深度学习(DL)是目前最活跃的分支。最近几年,DL取得了许多重要进展。其中一些因为事件跟大众关系密切而引人瞩目,而有的虽然低调但意义重大。深度学习从业人员应该保持足够的嗅觉原创 2021-01-13 23:21:08 · 1997 阅读 · 0 评论 -
Numpy数组(ndarray)中含有缺失值(nan)行和列的删除方法
1.先替换为?2.然后删除data = data.replace(to_replace = "?", value = np.nan)data.dropna(inplace = True)替换空值?为nan然后删除nan值data.isnull().any()检查结果出现全部为false的话为删除成功原创 2021-01-04 14:06:13 · 4880 阅读 · 0 评论 -
线性回归_ML
1.算法简介1.1 什么是回归分析回归分析是一种预测性的建模技术,它研究的是因变量(目标)和自变量(预测器)之间的关系。这种技术通常用于预测分析,时间序列模型以及发现变量之间的因果关系。通常使用曲线/线来拟合数据点,目标是使曲线到数据点的距离差异最小。1.2 线性回归线性回归是回归问题中的一种,线性回归假设目标值与特征之间线性相关,即满足一个多元一次方程。通过构建损失函数,来求解损失函数最小时的参数w和b。通长我们可以表达成如下公式:y^为预测值,自变量x和因变量y是已知的,而我们想实现的是预测原创 2021-01-04 10:50:38 · 244 阅读 · 0 评论 -
Sklearn的train_test_split用法
用途在机器学习中,该函数可按照用户设定的比例,随机将样本集合划分为训练集 和测试集,并返回划分好的训练集和测试集数据。语法X_train,X_test, y_train, y_test =cross_validation.train_test_split(X,y,test_size, random_state)参数说明CodeTextX待划分的样本特征集合y待划分的样本标签test_size若在0~1之间,为测试集样本数目与原始样本数目之比;若为整数,则是测原创 2021-01-03 17:37:18 · 352 阅读 · 0 评论 -
决策树_ML
决策树是一种机器学习的方法。决策树的生成算法有ID3, C4.5和C5.0等。决策树是一种树形结构,其中每个内部节点表示一个属性上的判断,每个分支代表一个判断结果的输出,最后每个叶节点代表一种分类结果。决策树是一种十分常用的分类方法,需要监管学习(有教师的Supervised Learning),监管学习就是给出一堆样本,每个样本都有一组属性和一个分类结果,也就是分类结果已知,那么通过学习这些样本得到一个决策树,这个决策树能够对新的数据给出正确的分类。这里通过一个简单的例子来说明决策树的构成思路:给出如原创 2021-01-03 17:28:58 · 166 阅读 · 0 评论 -
朴素贝叶斯算法_ML
文章目录1.算法思想2.理论基础2.1 条件概率2.2 词集模型2.3 词袋模型3.数据预处理4.代码5.总结朴素贝叶斯是经典的机器学习算法之一,也是为数不多的基于概率论的分类算法。朴素贝叶斯原理简单,也很容易实现,多用于文本分类,比如垃圾邮件过滤。1.算法思想逻辑回归通过拟合曲线(或者学习超平面)实现分类,决策树通过寻找最佳划分特征进而学习样本路径实现分类,支持向量机通过寻找分类超平面进而最大化类别间隔实现分类。相比之下,朴素贝叶斯独辟蹊径,通过特征概率来预测分类。举个可能不太恰当的例子:眼前有1原创 2021-01-03 15:07:36 · 268 阅读 · 0 评论 -
分类算法_knn算法_sklearn实践
文章目录1.Skelarn KNN参数概述2.代码实践3.KNN和Kmeans1.Skelarn KNN参数概述def KNeighborsClassifier(n_neighbors = 5, weights='uniform', algorithm = '', leaf_size = '30', p = 2,原创 2021-01-02 13:34:47 · 307 阅读 · 0 评论 -
分类算法_knn算法
1.KNN算法概述KNN可以说是最简单的分类算法之一,同时,它也是最常用的分类算法之一,注意KNN算法是有监督学习中的分类算法,它看起来和另一个机器学习算法Kmeans有点像(Kmeans是无监督学习算法),但却是有本质区别的。2.KNN算法介绍KNN的全称是K Nearest Neighbors,意思是K个最近的邻居,从这个名字我们就能看出一些KNN算法的蛛丝马迹了。K个最近邻居,毫无疑问,K的取值肯定是至关重要的。那么最近的邻居又是怎么回事呢?其实啊,KNN的原理就是当预测一个新的值x的时候,根据原创 2021-01-02 13:27:29 · 587 阅读 · 0 评论 -
特征降维
降维实际上就是降低特征的个数,最终的结果就是特征和特征之间不相关。降维:降维是指在某些限定条件下,降低随机变量(特征)个数,得到一组“不相关”主变量的过程降维的两种方式1.特征选择2.主成分分析:可以理解为特征的提取特征选择Filter(过滤式):主要探究特征本身特点、特征与特征和目标值之间关联。方差选择法:低方差特征过滤.例如鸟类是否可以飞作为特征值是不合适的,此时的方差为0相关系数:目的是去除冗余,确定特征与特征之间的相关性Embedded(嵌入式):算法自动选择特征(特征与目原创 2021-01-01 22:38:56 · 1785 阅读 · 0 评论 -
特征预处理_无量钢化
无量钢化分为1.归一化2.标准化主要是为了使数据可以有一个统一的比重常见的无量纲化处理方法主要有极值化、标准化(最常用)、均值化和标准差化方法。归一化定义通过对原始数据的转化把数据映射到[0,1)之间公式为:作用于每一列,max为最大值,min为最小值,mx与mi为1和0对于如上的事例:1列 90:X· = 1X`` = 12列 2:X` = 0X`` = 0API:数据计算from sklearn.datasets import load_irisimpor原创 2021-01-01 21:00:39 · 545 阅读 · 0 评论