![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
数学补给
NERV_Dyson
这个作者很懒,什么都没留下…
展开
-
2020-10-11
系列文章目录提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加例如:第一章 Python 机器学习入门之pandas的使用提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录系列文章目录前言一、統計 / 計量經濟需要的線性代數1.二、使用步骤1. Some notes of Matrix Operations2.读入数据总结前言提示:这里可以添加本文要记录的大概内容:例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,原创 2020-10-11 23:19:56 · 286 阅读 · 1 评论 -
EM算法(极简)
期望极大化(EM)算法可用于生成某些多模态数据分布参数的最优假设。注意,我们说的是“最佳”假设。但是什么是“最佳假设”呢?分布参数的最佳假设是最大似然假设最大概率来自K个分布,每个分布有均值mkm_kmk和方差σk2\sigma_k^2σk2我们假设要处理K个正态分布:在单模态正态分布中,该假设h直接由数据估计为:estimated(m)=m≃sum(xi)/Nestimated(m)...原创 2020-02-04 14:38:42 · 233 阅读 · 0 评论 -
理解GCN(二)从拉普拉斯矩阵到Ncut问题
0 文章小节分类相关线代启示录对Laplancian Matrix的基础理解对经典文章《Normalized Cuts and Image Segmentation》中的normalised cut algorithm部分做详细的个人理解与阐述1. 相关线代启示录1.1 特征值与特征向量部分:https://blog.csdn.net/qq_38382642/article/det...原创 2019-12-17 00:32:01 · 1558 阅读 · 1 评论 -
理解GCN(一):从拉普拉斯矩阵到谱聚类
1 什么是GCN:了解GCN之前必须对离散卷积(或者说CNN中的卷积)有一个明确的认识:这篇博客介绍了卷积的简单理解,离散卷积本质就是一种加权求和。以下介绍离散卷积的篇幅参考了这篇文章的第一部分:如图1所示,CNN中的卷积本质上就是利用一个共享参数的过滤器(kernel),通过计算中心像素点以及相邻像素点的加权和来构成feature map实现空间特征的提取,当然加权系数就是卷积核的权重系...原创 2019-12-15 22:34:20 · 2090 阅读 · 0 评论 -
什么是互相关
在这里我想探讨一下“互相关”中的一些概念。正如卷积有线性卷积(linear convolution)和循环卷积(circular convolution)之分;互相关也有线性互相关(linear cross-correlation)和循环互相关(circular cross-correlation)。线性互相关和循环互相关的基本公式是一致的,不同之处在于如何处理边界数据。其本质的不同在于它们对原始...转载 2019-12-15 16:18:16 · 10722 阅读 · 2 评论 -
如何通俗易懂地解释卷积
从数学上讲,卷积就是一种运算。某种运算,能被定义出来,至少有以下特征:抽象的,符号化的在生活中,科研中有着广泛的应用比如加法:a+ba+ba+b,是抽象的,本身只是一个数学符号在现实中,有非常多的意义,比如增加、合成、旋转等等卷积,是我们学习高等数学之后,新接触的一种运算,因为涉及到积分、级数,所以看起来觉得很复杂。1. 卷积的定义我们称(f∗g)(n)(f*g)(n)(...转载 2019-12-15 14:20:57 · 913 阅读 · 0 评论