概率论
文章平均质量分 93
swartz_lubel
这个作者很懒,什么都没留下…
展开
-
决策树之ID3算法
今天,我来讲解的是决策树。对于决策树来说,主要有两种算法:ID3算法和C4.5算法。C4.5算法是对ID3算法的改进。今天主要先讲ID3算法,之后会讲C4.5算法和随机森林等。 Contents 1. 决策树的基本认识 2. ID3算法介绍 3. 信息熵与信息增益 4. ID3算法的C++实现转载 2017-10-23 09:57:34 · 378 阅读 · 0 评论 -
SVM算法
机器学习是研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习的大致分类:1)分类(模式识别):要求系统依据已知的分类知识对输入的未知模式(该模式的描述)作分析,以确定输入模式的类属,例如手写识别(识别是不是这个数)。2)问题求解:转载 2017-11-13 19:47:01 · 664 阅读 · 0 评论 -
逻辑回归(Logistic Regression)
机器学习算法与Python实践之(七)逻辑回归(Logistic Regression)zouxy09@qq.comhttp://blog.csdn.net/zouxy09 机器学习算法与Python实践这个系列主要是参考《机器学习实战》这本书。因为自己想学习Python,然后也想对一些机器学习算法加深下了解,所以就想通过Python来实现几个比较常用转载 2017-11-13 19:26:38 · 328 阅读 · 0 评论 -
Sigmoid函数与损失函数求导
1sigmoid函数1 从指数函数到sigmoid2 对数函数与sigmoid2sigmoid函数求导3神经网络损失函数求导1、sigmoid函数 sigmoid函数,也就是s型曲线函数,如下: 函数:f(z)=11+e−z导数:f′(z)=f(z)(1−f(z)) 上面是我们常见的形式,虽转载 2017-11-13 14:08:47 · 713 阅读 · 0 评论 -
内积与外积
1.3.2 内积与外积因为cos(π/2)=0。当然,这也是众多教科书上介绍向量内积最开始时常常用到的一种定义方式。但必须明确,这种表示方式仅仅是一种非常狭隘的定义。如果从这个定义出发来介绍向量内积,其实是本末倒置的。因为对于高维向量而言,夹角的意义是不明确的。例如,在三维坐标空间中,再引入一维时间坐标,形成一个四维空间,那么时间向量与空间向量的夹角该如何解释呢?所以读者务转载 2017-10-25 11:58:30 · 15120 阅读 · 1 评论 -
全概率公式、贝叶斯公式推导过程
(1)条件概率公式 设A,B是两个事件,且P(B)>0,则在事件B发生的条件下,事件A发生的条件概率(conditional probability)为: P(A|B)=P(AB)/P(B) (2)乘法公式 1.由条件概率公式得: P(A转载 2017-10-24 23:34:04 · 457 阅读 · 0 评论 -
Logistic回归
Logistic回归简介假设有一些数据点,我们利用一条直线对这些数据点进行拟合(该线称为最佳拟合直线),这个拟合过程就称为回归。利用Logistic进行回归的主要思想:根据现有数据对分类边界线建立回归公式,以此进行分类。算法流程1.优化目标函数需要的函数应该是可以接受所有的输入然后预测出类别。 例如,在两类的情况下,上述函数输出0或1。海维塞德阶跃函数或者直接称转载 2017-10-27 23:07:37 · 271 阅读 · 0 评论 -
三角函数公式表
sin(x)=cos(π2−y)1+sinx≥01. cos(θ)+sin(θ) 的取值范围cos(θ)+sin(θ)=2√(2√2cos(θ)+2√2sin(θ))=2√sin(θ+π4)2. 双曲正切双曲正切 tanh 和正切 tan 的定义是一致的: tanh=sinhcosh而: sinh=ex−e−x转载 2017-10-27 10:05:43 · 4785 阅读 · 0 评论 -
图象:sine(正弦)、cosine(余弦)与Tangent(正切)
对于小于90度的角,增加角A的度数,也会增加该角对边的长度(假设斜边的长度保持不变),因此角A的正弦值也会随着增大,同时角A的临边将变短,同样角A的余弦值也会减小。对于大于90度的角,可以理解为将相应角(180-大于90度的角)所在的三角形水平翻转,因此该角的对边与临边就会相应的减小或增大(斜边的长度不变):这样看来,该角的正弦值就会减小,余弦值变大。当角度大于180度时,转载 2017-10-27 10:08:28 · 12786 阅读 · 0 评论 -
数学基础:向量篇
向量是线性代数中的基本概念,也是机器学习的基础数据表示形式。例如计算机阅读文本的过程首先就会将文本分词,然后用向量表示。这是因为向量很适合在高维空间中表达和处理。在机器学习中会接触到的诸如投影、降维的概念,都是在向量的基础上做的。在 Rn空间中定义的向量 V⃗ ,可以用一个包含 n 个实数的有序集来表示,即 V⃗ =⎡⎣⎢⎢⎢v1v2…vn⎤⎦⎥⎥⎥,这个有序集里的每个元素称为向量的转载 2017-10-26 23:47:23 · 754 阅读 · 0 评论 -
矩阵的运算及其运算规则
满足矩阵方程,求未知矩阵. 解 由已知条件知 三、矩阵与矩阵的乘法 1、 运算规则 设,,则A与B的乘积是这样一个矩阵: (1) 行数与(左矩阵)A相同,列数与(右矩阵)B相同,即. (2) C的第行第列的元素由A的第行元素与B的第列元素对应相乘,再取乘积之和.原创 2017-10-21 21:22:03 · 2558 阅读 · 0 评论