机器学习
文章平均质量分 74
jlulxg
这个作者很懒,什么都没留下…
展开
-
Softmax回归
Softmax回归Contents [hide]1 简介2 代价函数3 Softmax回归模型参数化的特点4 权重衰减5 Softmax回归与Logistic 回归的关系6 Softmax 回归 vs. k 个二元分类器7 中英文对照8 中文译者简介在本节中,我们介绍Softmax回归模型,该模型是转载 2017-05-19 19:46:11 · 340 阅读 · 0 评论 -
常用随机变量及其概率分布
一、常用的离散型随机变量及其概率分布1、(0-1)分布(伯努利分布(Bernoulli distribution)、两点分布)如果随机变量X 只可能取0与1两个值,其概率分布为:或写成则称随机变量X 服从(0-1)分布或两点分布.它的概率分布也可以写成2、二项分布在n重伯努利试验中,如果以X表示事件A 出现的次数,则X是一个离散型原创 2017-05-20 10:20:40 · 15354 阅读 · 0 评论 -
机器学习中的数学-强大的矩阵奇异值分解(SVD)及其应用
版权声明: 本文由LeftNotEasy发布于http://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applications.html前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。特征值转载 2017-06-09 18:03:51 · 252 阅读 · 0 评论 -
协方差矩阵
一、统计学的基本概念统计学里最基本的概念就是样本的均值、方差、标准差。首先,我们给定一个含有n个样本的集合,下面给出这些概念的公式描述:均值:标准差:方差:均值描述的是样本集合的中间点,它告诉我们的信息是有限的,而标准差给我们描述的是样本集合的各个样本点到均值的距离之平均。以这两个集合为例,[0, 8, 12, 20]和[8, 9, 11, 12],转载 2017-06-22 15:31:30 · 399 阅读 · 0 评论 -
逻辑回归原理
虽然叫做“回归”,但是这个算法是用来解决分类问题的。回归与分类的区别在于:回归所预测的目标量的取值是连续的(例如房屋的价格);而分类所预测的目标变量的取值是离散的(例如判断邮件是否为垃圾邮件)。当然,为了便于理解,我们从二值分类(binary classification)开始,在这类分类问题中,y只能取0或1。更好的理解问题,先举个小例子:假如我们要制作一个垃圾邮件过滤系统,如果一封邮件是垃圾系转载 2017-05-19 14:59:14 · 970 阅读 · 0 评论