自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 收藏
  • 关注

转载 【转】特征值和奇异值的关系是什么?

转自:https://blog.51cto.com/u_15069450/2610934问题引入特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,突然看的话两者好像是差不多的,都可以用于信息的提取和转换,但是两者有啥区别呢?问题解答特征向量 (Eigenvector)如果说一个向量vvv是方阵AAA的特征向量,将一定可以表示成下面的形式:Av=λvAv=\lambda vAv=λv这时候λλλ就被称为特征向量vvv对应的特征值(Eigenvalue),一个矩阵的

2021-06-13 22:21:02 2323

转载 【转】变分深度嵌入(Variational Deep Embedding, VaDE)

全文转载自 https://www.cnblogs.com/kailugaji/p/12882812.html阅读目录(Content)变分深度嵌入(Variational Deep Embedding, VaDE)1. 前提公式2. VaDE损失函数公式推导过程3. VaDE算法总体流程4. 疑问5. 参考文献回到顶部(go to top)变分深度嵌入(Variational Deep Embedding, VaDE)作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com

2021-01-03 12:22:46 1135

转载 【转】A Survey of Deep Clustering Algorithms

全文转载自 https://www.cnblogs.com/kailugaji/p/12383693.html阅读目录(Content) A Survey of Deep Clustering Algorithms1. Clustering with Deep Learning: Taxonomy and New Methods2. A Survey of Clustering With Deep Learning: From the Perspective of Netwo

2021-01-02 21:41:58 361

转载 【转】Deep Clustering Algorithms

全文转载自 https://www.cnblogs.com/kailugaji/p/12105939.html阅读目录(Content)Deep Clustering Algorithms1. Deep Embedded Clustering1.1 Stochastic Neighbor Embedding (SNE)1.2 t-SNE1.3 Deep Embedded Clustering(DEC)2. Improved Deep Embedded Clustering(I

2021-01-02 20:16:52 1261

转载 【转】聚类——GMM

全文转载自 https://www.cnblogs.com/kailugaji/p/9648508.html阅读目录(Content)聚类——认识GMM算法一、GMM概述二、GMM算法步骤三、具体推导参考文献四、总结回到顶部(go to top)聚类——认识GMM算法作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/一、GMM概述二、GMM算法步骤三、具体推导参考文献1. 李航. 统计学习方法[M]. 清华大学出版社, 2012.

2021-01-02 19:55:26 586

转载 【转】聚类——FCM

全文转自:https://www.cnblogs.com/kailugaji/p/9648430.html阅读目录(Content)聚类——认识FCM算法一、FCM概述二、FCM算法步骤回到顶部(go to top)聚类——认识FCM算法作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/一、FCM概述    FCM算法是基于对目标函数的优化基础上的一种数据聚类方法。聚类结果是每一个数据点对聚类中心的隶属程度,该隶属程度用一个

2021-01-02 19:47:10 405

转载 【转】k-means

阅读目录(Content)聚类——认识K-means算法一、聚类与分类二、K-means算法1.概述2.算法实现流程3.算法步骤回到顶部(go to top)聚类——认识K-means算法作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/一、聚类与分类聚类: 无监督学习。聚类是在预先不知道欲划分类的情况下,根据信息相似度原则进行信息聚类的一种方法。 目的是使得属于同类别的对象之间的差别尽可能的小,而不同类别上的对象的差别尽可能的大。分类: 监督

2021-01-02 17:59:04 74

转载 Life Long Learning

抄自 Frank Tian 李宏毅 Life Long LearningLife Long Learning (LLL)说的是,用同一个模型进行持续不断的学习。在我的理解中这个LLL有不同层次的含义。用分类问题举例,模型在最开始学习的时候可以用不同类别的图片,但是接下来,如果我们又拿到了一些训练数据,这些训练数据和之前的图片有些差别,我们想让模型通过学习新的数据提升能力,但是又不想让模型降低处理原来问题的能力。例如开始时见到的手写数字是有背景噪音的:后来新增加的训练数据是没有背景噪音的:在不

2020-10-26 22:13:36 540

原创 【新手采坑记】读取 *.grib2 文件

主要参考:https://blog.csdn.net/shyjhyp11/article/details/100655186步骤2参考:http://bbs.06climate.com/forum.php?mod=viewthread&tid=36026步骤1: 安装opengrads(含有wgrib2.exe程序)先安装 grads-2.2.1.oga.1-win32_superpack.exe (即为grads2.2(windows)版本)双击安装,下一步下一步就可以。之后出错,卸载重装了

2020-10-19 22:40:43 3667 3

原创 GCN入门 [博文链接]

GCN储备知识https://blog.csdn.net/weixin_41958296/article/details/90206415 论文笔记:The Emerging Field of Signal Processing on Graphs https://blog.csdn.net/weixin_41958296/article/details/92611965 综述笔记:A comprehensive survey on Graph Neural Networkshttps://

2020-10-14 15:17:15 84

转载 【转】卷积的进一步理解(二维)

摘转自 [CV] 通俗理解『卷积』——从傅里叶变换到滤波器二维空间虽然我们一直在强调『时间信号』,但不知大家注意到没有,其实这里的时间t,完全可以换成其他符号比如x,从而所谓的时间信号f(t),可以写成f(x),进而,图像可以看成一个离散的二维函数f(x,y),x 和 y 决定了图像的像素点,f是像素点在该处的取值。更形象地理解,图像就仿佛是一个『水池』,像素点就是『水分子』,像素点的取值大小,从视觉上看代表图像亮度的强弱,而类比到水池里,就是不同位置水分子的运动幅度,在水池里泛起涟漪。进而,我们很自

2020-10-13 22:42:52 650

转载 【转】“卷积”其实没那么难以理解

全文转载至 https://zhuanlan.zhihu.com/p/41609577“卷积”其实没那么难以理解J Pan航空工程师傅里叶变换、拉普拉斯变换、自(互)相关及卷积是线性系统分析里面最重要的四个数学工具,可以毫不夸张的说,自动控制、信号处理等课程几乎所有内容都是这几个公式组合排列的结果。四个公式中的三个在其他文章中都就已经介绍过了。今天我们就来讨论一下最后一个:卷积公式。一、狄拉克何许人也?保罗·狄拉克,(Paul Adrien Maurice Dirac,1902-1984)

2020-10-13 22:21:47 464

转载 【转】被众人膜拜的欧拉恒等式是个什么东东?

https://zhuanlan.zhihu.com/p/40302967被众人膜拜的欧拉恒等式是个什么东东?J Pan航空工程师651 人赞同了该文章老子说:道生一,一生二,二生三,三生万物。万物的本源既是数,自然世界造化了万物,也造化了人类,聪明的人类参照了大自然造化万物的方法,自已又物化出了一个能够认知、解释和预测自然界的一套逻辑方法。而数学,是这一切认知的逻辑基础,可以说,人类对世界的认识是随着数字的发明和数系的不断的扩展而加深的。数系的扩展是伴随着我们生活和认知的需要而进行的,从自然数扩展到分数

2020-10-13 16:24:50 401 1

转载 【转】傅里叶变换后面的到底有什么小秘密

全文转载自https://zhuanlan.zhihu.com/p/40396861傅里叶变换后面的到底有什么小秘密J Pan 航空工程师大家有没有想过一个问题,为什么全世界都把自己的纸币面额设成1、2和5这三个数字?这么选择是一种偶然还是必然?背后有什么秘密吗?其实答案没有什么太高深的,就是“简便”而已。因为人类经过多年的进化,形成了一种不可或缺的生存能力,那就是尽量将复杂的分解为简单的问题,比如:人们就发现虽然事物的价格千千万,我们总是可以用几种简单的数字叠加起来。而1、2和5这三个数

2020-10-13 16:24:01 272 1

转载 【转】从另一个角度看拉普拉斯变换

全文转载至 https://zhuanlan.zhihu.com/p/40783304从另一个角度看拉普拉斯变换J Pan航空工程师一、奥列弗. 赫维赛德是何许人也二、傅里叶变换(轻量版拉普拉斯变换)三、拉普拉斯变换(原来就是那么回事)拉普拉斯变换可以说是现代工程学使用最广泛的数学工具,它通过数学变换将微积分方程转化成代数方程,为求解连续空间连续时间的方程提供了可能。但是,一般的教材一上来就是拉普拉斯变换的数学定义,对于其历史和代表的深刻含义没有任何介绍,导致很多人一直头疼不已。今天,我们尝

2020-10-12 23:48:45 746 1

转载 【转】傅里叶分析之掐死教程(完整版)

全文转载自 https://zhuanlan.zhihu.com/p/19763358傅里叶分析之掐死教程(完整版)更新于2014.06.06Heinrich知乎日报收录作 者:韩 昊知 乎:Heinrich微 博:@花生油工人知乎专栏:与时间无关的故事谨以此文献给大连海事大学的吴楠老师,柳晓鸣老师,王新年老师以及张晶泊老师。转载的同学请保留上面这句话,谢谢。如果还能保留文章来源就更感激不尽了。 ——更新于2014.6.6,想直接看更新的同学可

2020-10-12 22:21:03 1179 2

转载 【转】自然常数“e”,工程中的自然数“1”

fsdgs

2020-10-10 22:44:25 406 1

转载 【转】最容易理解的对卷积(convolution)的解释

转载自:https://blog.csdn.net/bitcarmanlee/article/details/54729807项目github地址:bitcarmanlee easy-algorithm-interview-and-practice 欢迎大家star,留言,一起学习进步啰嗦开场白 读本科期间,信号与系统里面经常讲到卷积(convolution),自动控制原理里面也会经常有提到卷积。硕士期间又学了线性系统理论与数字信号处理,里面也是各种大把大把卷积的概念。至于最近大火的深度学习,更有专门

2020-10-09 15:21:46 658

原创 归一化 Normalization,标准化 Standardization,特征缩放 Feature scaling 相关链接

标准化和归一化什么区别?https://www.zhihu.com/question/20467170标准化和归一化,请勿混为一谈,透彻理解数据变换https://blog.csdn.net/weixin_36604953/article/details/102652160

2020-09-15 15:40:12 103

原创 pip 安装 更新

更新pippython -m pip install --upgrade pip更新包pip install --upgrade scipy指定版本pip install --upgrade scipy==1.3.0清华镜像:https://pypi.tuna.tsinghua.edu.cn/simplepip install --upgrade scipy==1.3.0 -i https://pypi.tuna.tsinghua.edu.cn/simplepython -m pip

2020-09-07 21:23:53 609

转载 威尔科克森(Wilcoxon)符号秩检验:定义,运行方式

原文 :https://www.statisticshowto.com/wilcoxon-signed-rank-test/转载:https://www.cnblogs.com/djx571/p/10216940.htmlWilcoxon有符号秩检验(也称为Wilcoxon有符号秩和检验)是一种非参数检验。当统计数据中使用“非参数”一词时,并不意味着您对总体一无所知。这通常意味着总体数据没有正态分布。如果两个数据样本来自重复观察,那么它们是匹配的。利用Wilcoxon Signed-Rank检验,在

2020-06-19 21:04:44 61942

转载 【转】 关于显著性检验,你想要的都在这儿了!!(基础篇)

  无论你从事何种领域的科学研究还是统计调查,显著性检验作为判断两个乃至多个数据集之间是否存在差异的方法被广泛应用于各个科研领域。笔者作为科研界一名新人也曾经在显著性检验方面吃过许多苦头。后来醉心于统计理论半载有余才摸到显著性检验的皮毛,也为显著性检验理论之精妙,品种之繁多,逻辑之严谨所折服。在此,特写下这篇博文,以供那些仍然挣扎在显著性检验泥潭的非统计专业的科研界同僚们参考。由于笔者本人也并非统计专业毕业,所持观点粗陋浅鄙,贻笑大方之处还望诸位业界前辈,领域翘楚不吝赐教。小可在此谢过诸位看官了。  本.

2020-06-18 03:00:03 8175

转载 TexWorks 拼写检查

本文所讲方法大部分内容来自http://tex.stackexchange.com/questions/235313/how-to-add-spell-checker-to-texworks-on-windows,增加的内容有相关的截图和具体的下载网站。同时其他的一些网络上的方法所讲解的不清楚,并且所告知的下载字典网站失效。这些都是产生本文的原因。下载字典从https://extensions.openoffice.org/en/project/english-dictionaries-apache-o

2020-06-09 01:13:26 3690 7

原创 论文:Nonlinear Dimensionality Reduction by Locally Linear Embedding(LLE)

《Nonlinear Dimensionality Reduction by Locally Linear Embedding 》发表时间:Science 2000论文地址:http://science.sciencemag.org/content/290/5500/2323论文翻译 :https://blog.csdn.net/qq_35771020/article/details/87928517算法解析:https://www.cnblogs.com/xbinworld/archive/

2020-05-24 19:50:56 291

转载 机器学习-降维算法(MDS算法)

机器学习-降维算法(MDS算法) 一,介绍在现实数据中,很多数据都是高纬度的,在高纬度情况下进行数据处理将会有极大的数据处理量。为了,减少计算量,常常需要缓解这种数据维度灾难,这有两种途径:降维和特征选择。我们在这里介绍其中一种降维算法:MDS算法。MDS算法要求

2020-05-24 05:12:17 3031 1

原创 GAN网络本身

各种GAN原理总结及对比https://blog.csdn.net/zhuimengshaonian66/article/details/83069657转载了https://blog.csdn.net/Gavinmiaoc/article/details/79947877Generative Adversarial Networks (GANs): What it can generate and What it cannot?P Manisha, Sujit Gujarhttps://arx

2020-05-17 20:16:14 139

原创 【杂】梯度、tf.nn.sigmoid_cross_entropy_with_logits

当loss趋于饱和(saturate),它的梯度消失。 梯度爆炸https://blog.csdn.net/qq_27825451/article/details/80172070tf.nn.sigmoid_cross_entropy_with_logits 实现的公式https://blog.csdn.net/luoxuexiong/article/details/90109822转载了https://www.cnblogs.com/bonelee/p/8995898.html...

2020-05-17 20:03:51 146

原创 GAN用于半监督学习

<link rel="stylesheet" href="https://csdnimg.cn/release/phoenix/template/css/ck_htmledit_views-211130ba7a.css"> <div id="content_views" class="markdown_views prism-atom-one-dark"> <!-- flowchar...

2020-05-12 21:50:42 351

原创 论文:Benchmarking Regression Methods: A comparison with CGAN

Benchmarking Regression Methods: A comparisonwith CGAN简介结论简介GAN几乎没有应用在具有小尺寸输出空间的问题上。一个很好的例子就是涉及映射的归纳学习的回归问题: 输出(y∈Rmy∈\mathbb R^my∈Rm)是输入(x∈Rnx∈\mathbb R^nx∈Rn)的连续随机函数,y=f(x,z)y = f(x, z)y=f(x,z),z∈...

2020-05-06 23:41:14 747

原创 论文:Reg-GAN (ICASSP 2018)

SEMI-SUPERVISED REGRESSION WITH GENERATIVE ADVERSARIAL NETWORKS FOR END TO END LEARNING IN AUTONOMOUS DRIVING半监督回归生成对抗神经网络用于自动驾驶的端到端学习挑战和贡献相关工作生成对抗网络算法实验数据集训练配置实验结果结论半监督回归生成对抗神经网络用于自动驾驶的端到端学习AD(...

2020-04-29 02:28:41 2458 1

原创 [链接] Relu非处处可导为什么可以作激活函数,激活函数的可导性要求

https://www.cnblogs.com/xueqiuqiu/articles/7606293.htmlhttps://blog.csdn.net/ningyanggege/article/details/82493023

2020-01-16 18:17:33 2000

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除