机器学习
奋斗的小炎
设计推荐算法,接触过自然语言处理,对于人工智能领域的学习永无止境
展开
-
协方差与样本相关性
方差(Variance):用来度量随机变量和其数学期望(均值)之间的偏离程度。样本方差(Sample Variance):每个样本值与全体样本值的平均数之差的平方值的平均数协方差(Covariance):表示两个变量X、Y的总体误差。如果X、Y的变化趋势一致,cov(X,Y)>0,两个变量正相关;若X、Y的变化趋势相反,cov(X,Y)<0,两者负相关;若cov(X,Y)=0,X与Y线...原创 2018-05-25 01:02:21 · 2725 阅读 · 0 评论 -
(转载)用Maven构建的Mahout项目实现协同过滤
原文地址:https://blog.csdn.net/jiutianhe/article/details/401117911. 用Mahout实现协同过滤userCFMahout协同过滤UserCF深度算法剖析,请参考文章:用R解析Mahout用户推荐协同过滤算法(UserCF)实现步骤:(1)准备数据文件: item.csv;(2)编写Java程序:UserCF.java;(3)运行程序(1)数...转载 2018-06-19 11:54:06 · 585 阅读 · 0 评论 -
Softmax的通俗讲解
0 前言Softmax在机器学习中应用非常广泛,尤其在处理多分类问题,分类器最后的输出单元需要Softmax 函数进行数值处理。但是刚刚接触机器学习的同学可能对Softmax的特点及好处并不理解,当你了解以后会发现,Softmax计算简单,效果显著。我们先来直观看一下,Softmax究竟是什么意思:我们知道max,假如说我有两个数,a和b,并且a>b,如果取max,那么就直接取a,没有第二种...原创 2018-06-21 18:22:24 · 10937 阅读 · 1 评论 -
通俗理解简单的交叉熵损失函数
说起交叉熵损失函数「Cross Entropy Loss」,我们都不陌生,脑海中会马上浮现出它的公式:我们已经对这个交叉熵函数的形式非常熟悉,多数情况下都是直接拿来使用。那么,它是怎么来的?为什么它能表征真实样本标签和预测概率之间的差值?上面的交叉熵函数是否有其它变种?接下来我将尽可能通俗地回答上面这几个问题。(一)交叉熵损失函数的数学原理我们知道,在二分类问题模型,例如逻辑回Logistic R...原创 2018-06-21 13:42:00 · 3628 阅读 · 0 评论 -
(通俗理解)机器学习中 L1 和 L2 正则化的直观解释
机器学习中,如果参数过多,造成模型过于复杂,容易造成过拟合(overfiting),即模型在训练样本数据上表现的很好,但在实际测试样本上表现的较差,即不具有很强的泛化能力。为了避免过拟合,最常用的一种方法是使用正则化,例如 L1 和 L2 正则化,分别对应于回归分析中的Lasso回归和Ridge回归。但是,正则化项如何得来?其背后的数学原理是什么?L1 正则化和 L2 正则化之间有何区别?本人在经...原创 2018-06-21 11:38:29 · 2457 阅读 · 1 评论 -
转载:奇异值分解(SVD)详解及其应用
最近一直在研究关于奇异值分解与推荐系统隐语义模型方面的内容,看到了一篇讲述很详细的文章,觉得蛮实用的,给大家分享一下。原文链接:https://blog.csdn.net/shenziheng1/article/details/529162781.前言PCA的实现一般有两种,一种是用特征值分解(eigenvalue decomposition)去实现的,一种是用奇异值分解(SVD)去实现的。特征值...转载 2018-05-24 22:32:06 · 312 阅读 · 0 评论 -
(转载)特征工程概述与理解
https://blog.csdn.net/NXHYD/article/details/76787801目录1 特征工程是什么?2 数据预处理 2.1 无量纲化 2.1.1 标准化 2.1.2 区间缩放法 2.1.3 标准化与归一化的区别 2.2 对定量特征二值化 2.3 对定性特征哑编码 2.4 缺失值计算 2.5 数据变换3 特征选择 3.1 Filter ...转载 2018-05-29 17:36:46 · 323 阅读 · 0 评论 -
机器学习中高维数据降维技术的总结与研究
本文有比较多的转载其他研究人员的博客https://blog.csdn.net/u014772862/article/details/52335970作为一名机器学习的科研人员,之前在推荐系统的开发和工作中,学习了PCA(主成分分析)与SVD(奇异值分解)方面的技术,但是还没有写过总结性的文章,此次,本人总结一些关于降维技术的调研,希望大家多多指教。降维方法一般分为线性降维方法和非线性降维方法,如...转载 2018-05-29 15:09:23 · 10786 阅读 · 1 评论 -
LDA(Dirichlet Distribution)主题模型基本知识与理解(二)
在第一部分博客里已经讲解了LDA的一些基本组成,这篇博文将会讲解LDA在NLP方面的应用。望大家继续支持上一篇博文:https://blog.csdn.net/Little_Fire/article/details/80483566(三)Dirichlet分布在NLP中的应用(关于topic生成word的过程)根据上文中提到了的掷硬币的例子,假设自然语言中存在很多奇怪的coin(religion、...原创 2018-05-28 22:31:51 · 765 阅读 · 0 评论 -
LDA(Dirichlet Distribution)主题模型基本知识与理解(一)
最近在研究无监督模型与降维技术,说起无监督模型,我们首先想到的是聚类技术(Clustering),而在实际生产中,很多方法可以被用来做降维(正则化Lasso/Ridge回归、PCA主成分分析、小波分析、线性判别法、拉普拉斯特征映射等),其中基于主成分分析(PCA)的Topic Model技术包含了pLSA、LDA、SVD分解等。+本文为大家科普一下,作为一名机器学习相关工作者,本人对LDA的基本...原创 2018-05-28 20:50:19 · 4366 阅读 · 0 评论 -
特征值分解与奇异值分解原理与计算
(一)特征值如果一个非零向量v是方阵A的特征向量,将一定可以表示成下面形式,而λ是特征向量v对应的特征值:特征值分解是将一个矩阵分解成下面的形式:其中Q是这个矩阵A的特征向量组成的矩阵,Σ是一个对角阵,每一个对角线上的元素就是一个特征值。一个矩阵的一组特征向量是一组正交向量。【练习题】求解矩阵A的特征值与特征向量。方阵的特征值表示什么含义呢,我们通过一组向量图表示。初始状态下,i(红色)和j(蓝色...原创 2018-05-25 01:36:39 · 7931 阅读 · 1 评论 -
(转载)基于sklearn的iris数据集及简介
(一)iris数据集简介Iris数据集是机器学习任务中常用的分类实验数据集,由Fisher在1936收集整理。Iris中文名是安德森鸢尾花卉数据集,英文全称是Anderson’s Iris data set,是一类多重变量分析的数据集。Iris一共包含150个样本,分为3类,每类50个数据,每个数据包含4个属性。可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Setosa,V...原创 2018-07-16 11:54:38 · 21541 阅读 · 0 评论