自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

且慢

愿过往惆怅 化他日酒香 偕肝胆比翼 书来日方长

  • 博客(301)
  • 资源 (1)
  • 收藏
  • 关注

原创 LaTex符号大全

https://blog.csdn.net/yen_csdn/article/details/79966985

2020-09-28 15:55:46 1071

原创 goland报错:package XXX is not in GOROOT (X:\XXX\Go\src\XXX)

输入go env检查了一下环境,发现GO111MODULE=on设置GO111MODULE为off即可。go env -w GO111MODULE=off

2021-11-22 09:38:20 770

原创 conda命令报错解决方法

C:\Users\Jason>conda env listTraceback (most recent call last): File "D:\software\miniconda\Scripts\conda-env-script.py", line 6, in <module> sys.exit(main()) File "D:\software\miniconda\lib\site-packages\conda_env\cli\main.py", line 82,.

2021-11-06 09:36:32 3042 2

原创 滑动窗口习题

无重复字符的最长子串(力扣)给定一个字符串 s ,请你找出其中不含有重复字符的 最长子串 的长度。示例 1:输入: s = "abcabcbb" 输出: 3 解释: 因为无重复字符的最长子串是 "abc",所以其长度为 3。 示例 2:输入: s = "bbbbb" 输出: 1 解释: 因为无重复字符的最长子串是 "b",所以其长度为 1。 示例 3:输入: s = "pwwkew" 输出: 3 解释: 因为无重复字符的最长子串是 "wke",所以其长度为 3。 请注意,你的答案必须是

2021-10-24 10:28:16 650

原创 PCA主成分分析

PCA主成分分析文章目录PCA主成分分析数据的向量表示及降维问题向量的表示及基变换内积与投影基基变换的矩阵表示下面我们找一种简便的方式来表示`基变换`。还是拿上面的例子,想一下,将(3,2)变换为新基上的坐标,就是用(3,2)与第一个基做内积运算,作为第一个新的坐标分量,然后用(3,2)与第二个基做内积运算,作为第二个新坐标的分量。实际上,我们可以用矩阵相乘的形式简洁的表示这个变换:$$\begin{pmatrix} 1/\sqrt{2} & 1/\sqrt{2} \\ -1/\sq

2021-04-08 09:25:26 902

原创 MMD讲解

MMD讲解文章目录MMD讲解描述一个随机变量衡量两个随机变量的差异如何表示一个随机变量的任意阶矩描述一个随机变量去描述一个随机变量,最直接的方法就是给出它的概率分布函数f(x)f(x)f(x)。一些简单的分布可以这么干,比如正态分布给出均值和方差就可以确定,但是对于一些复杂的、高维的随机变量,我们无法给出它们的分布函数。这时候我们可以用随机变量的矩来描述一个随机变量,比如一阶中心矩是均值,二阶中心矩是方差等等。如果两个分布的均值和方差都相同的话,它们应该很相似,比如同样均值和方差的高斯分布和拉普拉斯

2021-04-08 09:24:30 2221

原创 再生希尔伯特空间与核函数讲解

再生希尔伯特空间与核函数讲解文章目录再生希尔伯特空间与核函数讲解空间线性空间/向量空间(Linear Space/Vector Space)度量空间赋范线性空间/范数向量空间距离与范数的关系内积空间(inner product space)欧式空间/欧几里得空间(Euclidean Space)巴拿赫空间希尔伯特空间核函数1.矩阵的特征值分解2.核函数3.Mercer定理4.核函数的作用以及通俗理解再生核希尔伯特空间具体定义空间空间的概念就是 空间 = 集合 + 结构线性空间/向量空间(Linear

2021-04-08 09:23:39 1341

原创 流形学习

流形学习文章目录流形学习数据降维问题什么是流形?什么是流形学习?局部线性嵌入拉普拉斯特征映射拉普拉斯矩阵进行数据降维的具体做法第一步第二步第一种第二种第三步局部保持投影第一步第二步数据降维问题在很多应用中,数据的维数会很高。以图像数据为例,我们要识别32x32的手写数字图像,如果将像素按行或者列拼接起来形成向量,这个向量的维数是1024。高维的数据不仅给机器学习算法带来挑战,而且导致计算量大,此外还会面临维数灾难的问题(这一问题可以直观的理解成特征向量维数越高,机器学习算法的精度反而会降低)。人所能直

2021-04-08 09:21:53 986

原创 聚类

聚类文章目录聚类1.聚类定义聚类和分类的区别聚类的一般过程数据对象间的相似度度量cluster之间的相似度度量2.数据聚类方法划分式聚类方法k-means算法度量标准更新方式迭代结束条件代码k-means++算法bi-kmeans算法3.基于密度的方法DBSCAN算法1.聚类定义聚类(Clustering)是按照某个特定标准(如距离)把一个数据集分割成不同的类或簇,使得同一个簇内的数据对象的相似性尽可能大,同时不在同一个簇中的数据对象的差异性也尽可能地大。也即聚类后同一类的数据尽可能聚集到一起,不同

2021-04-08 09:21:11 1300

原创 经验风险最小化与结构风险最小化

经验风险最小化与结构风险最小化经验风险最小化经验风险最小化的策略认为,经验风险最小的模型是最优的模型:min⁡f∈F1N∑i=1NL(yi,f(xi))(7)\min_{f\in F}\frac{1}{N}\sum^N_{i=1}L(y_i,f(x_i))\tag7f∈Fmin​N1​i=1∑N​L(yi​,f(xi​))(7)当样本容量足够大时,经验风险最小化能保证有很好的学习效果。比如,极大似然估计就是经验风险最小化的一个例子,当模型是条件概率分布,损失函数是对数损失函数时,经验风险最小化就

2021-04-08 09:20:06 707

原创 范数与距离

范数与距离文章目录范数与距离距离的概念范数的概念向量范数与矩阵范数的理解范数的分类1.L-P范数2.L0范数3.L1范数4.L2范数距离的分类1.欧氏距离——对应L2范数2.曼哈顿距离——对应L1范数距离的概念给定一个集合VVV,在VVV上定义一种新的运算:距离:V×V→R,∀x,y∈V,V \times V \rightarrow R,\forall x,y \in V,V×V→R,∀x,y∈V,在RRR中都有唯一的元素δ\deltaδ与之对应,称为x,yx,yx,y之间的距离。满足的性质:d

2021-04-08 09:18:13 1107

转载 图卷积网络

图卷积网络文章目录图卷积网络图卷积网络的概述循环图神经网络状态更新与输出不动点理论fff函数的具体实现模型学习GNN与RNNGNN的局限门控图神经网络(Gated Graph Neural Network)状态更新图卷积网络图卷积缘起图卷积框架(Framework)GCN与GNN区别卷积空域卷积(Spatial Convolution)消息传递网络(Message Passing Neural Network)图采样与聚合(Graph Sample and Aggregate)频域卷积(Spectral

2021-04-08 09:15:30 5583

原创 词嵌入模型

词嵌入模型文章目录词嵌入模型词汇表征(Word Representation)使用one-hot表示的缺点特征化的表示使用词嵌入的步骤词嵌入的特性余弦相似度嵌入矩阵Word2VecSkip-Gram 模型CBOW模型负采样Glove词向量Glove的具体实现Glove的训练方式代码词汇表征(Word Representation)使用one-hot表示的缺点1.如果要表示的词语个数比较多的话,one—hot会很占空间。2.如"I want a glass of orange ()“与"I want

2021-04-08 09:03:02 1405

原创 RNN————循环神经网络

RNN————循环神经网络(Recurrent Neural Network)文章目录RNN————循环神经网络(Recurrent Neural Network)RNN的计算:RNN前向传播示意图:损失函数:RNN 反向传播示意图:RNN的不同结构:使用RNN生成语言模型对新序列采样循环神经网络的梯度消失GRU门控循环单元(Gated Recurrent Unit(GRU))记忆细胞候选值重写记忆细胞更新门思想具体步骤相关门思想长短期记忆(LSTM)LSTM 前向传播图双向循环神经网络(Bidirect

2021-04-08 08:59:25 564

原创 随意更改浏览器背景颜色

1.在chrome商店下载插件dark reader2.点击右下角的开发者工具3.点击右下角的preview new design可以看到原来的dark reader界面发生改变4.点击see all options,再点击中间的colors5.在background输入你要设置的颜色的16进制表示6.再打开之前这个页面,点击右下角switch to old design7.点击选择明亮模式,浏览器的颜色就变了效果:...

2021-02-18 09:39:40 2276

原创 from torch._C import * dlopen: cannot load any more object with static TLS

https://blog.csdn.net/qq_36940806/article/details/106001061

2021-01-14 10:00:09 688

转载 二十二种 transforms 图片数据预处理方法

[PyTorch 学习笔记] 2.3 二十二种 transforms 图片数据预处理方法 - 张贤同学 - 博客园 (cnblogs.com)

2020-11-25 19:17:00 868

原创 Exploiting Images for Video Recognition Heterogeneous Feature Augmentation via Symmetric Adversarial

SymGAN—Exploiting Images for Video Recognition: Heterogeneous Feature Augmentation via Symmetric Adversarial Learning学习笔记文章目录SymGAN—Exploiting Images for Video Recognition: Heterogeneous Feature Augmentation via Symmetric Adversarial Learning学习笔记abstracti

2020-11-17 10:34:36 875

原创 Larger Norm More Transferable: An Adaptive Feature Norm Approach for Unsupervised Domain Adaptation

AFN—Larger Norm More Transferable: An Adaptive Feature Norm Approach for Unsupervised Domain Adaptation学习笔记文章目录AFN—Larger Norm More Transferable: An Adaptive Feature Norm Approach for Unsupervised Domain Adaptation学习笔记tipAbstractintroduceMethodPreliminari

2020-11-16 20:30:42 1132

原创 Learning to Transfer Examples for Partial Domain Adaptation学习笔记

Learning to Transfer Examples for Partial Domain Adaptation学习笔记文章目录Learning to Transfer Examples for Partial Domain Adaptation学习笔记tipAbstractIntroductionrelated workPartial Domain AdaptationExample Transfer NetworkTransferability Weighting FrameworkExampl

2020-11-14 21:45:35 1295 2

原创 Partial Adversarial Domain Adaptation学习笔记

Partial Adversarial Domain Adaptation学习笔记文章目录Partial Adversarial Domain Adaptation学习笔记tipAbstractIntroductionPartial Adversarial Domain AdaptationDomain Adversarial Neural NetworkPartial Adversarial Domain Adaptationtip对目标域的样本预测值进行基于源域类别重要性权值的平均化。Abstr

2020-11-13 10:52:48 1152

原创 Partial Transfer Learning with Selective Adversarial Networks学习笔记

Partial Transfer Learning with Selective Adversarial Networks学习笔记文章目录Partial Transfer Learning with Selective Adversarial Networks学习笔记AbstractintroducePartial Transfer LearningDomain Adversarial NetworkSelective Adversarial NetworkAbstract作者针对部分预适应,提出了选

2020-11-12 20:45:04 724

原创 Importance Weighted Adversarial Nets for Partial Domain Adaptation学习笔记

Importance Weighted Adversarial Nets for Partial Domain Adaptation学习笔记文章目录Importance Weighted Adversarial Nets for Partial Domain Adaptation学习笔记Abstractintroducerelated workProposed MethodframeworkAdversarial Nets-based Domain AdaptationImportance Weighte

2020-11-11 20:12:58 1017

原创 Exploiting Images for Video Recognition with Hierarchical Generative Adversarial Networks学习笔记

Exploiting Images for Video Recognition with Hierarchical Generative Adversarial Networks学习笔记文章目录Exploiting Images for Video Recognition with Hierarchical Generative Adversarial Networks学习笔记Abstract1.IntroductionHierarchical Generative Adversarial Network

2020-11-10 16:40:00 787

原创 improved open set domain adaptation with backpropagation 学习笔记

improved open set domain adaptation with backpropagation 学习笔记文章目录improved open set domain adaptation with backpropagation 学习笔记TIPABSTRACT1.INTRODUCTION AND RELATED WORK2.PROPOSED METHOD2.1 Overall IdeaTIPKL距离,是Kullback-Leibler差异(Kullback-Leibler Diverge

2020-11-09 14:53:22 1613

转载 Domain Adaptation论文合集

转载于:https://blog.csdn.net/weixin_37993251/article/details/101266116[1]A Survey on Transfer Learning:CUHK的杨强教授于2010年发表在IEEE的Transactions on knowledge and data engineering上关于迁移学习的综述性论文。在许多机器学习和数据挖掘算法中,一个主要的假设是训练和未来的数据必须在相同的特征空间中,并且具有相同的分布。然而,在许多实际应用程序中,这

2020-11-08 15:15:23 912

转载 BrokenPipeError: [Errno 32] Broken pipe

该问题的产生是由于windows下多线程的问题,和DataLoader类有关。解决方案:修改调用torch.utils.data.DataLoader()函数时的num_workers参数。该参数官方API解释如下:num_workers(int,optional) – how many subprocesses to use for data loading. 0 means that the data will be loaded in the main process. (...

2020-11-07 09:21:55 664

原创 Open Set Domain Adaptation by Backpropagation(OSBP)论文数字数据集复现

Open Set Domain Adaptation by Backpropagation(OSBP)论文数字数据集复现文章目录Open Set Domain Adaptation by Backpropagation(OSBP)论文数字数据集复现1.准备数据集2.模型结构3.训练(SVHN→\rightarrow→ MNIST)4.结果1.准备数据集MNIST数据集:28*28,共70000张图片,10类数字USPS数据集:16*16,共20000张图片,10类数字SVHN数据集:32*32,共

2020-11-03 10:54:08 2265 1

转载 训练中torch.backends.cudnn.benchmark的使用

训练中torch.backends.cudnn.benchmark的使用一般将torch.backends.cudnn.benchmark设为True就可以大大提升卷积神经网络的运行速度。原因:将会让程序在开始时花费一点额外时间,为整个网络的每个卷积层搜索最适合它的卷积实现算法,进而实现网络的加速。适用:适用场景是网络结构固定(不是动态变化的),网络的输入形状(包括 batch size,图片大小,输入的通道)是不变的背景:大多数主流深度学习框架都支持 cuDNN这个GPU加速库,来为训练加速。而

2020-11-03 09:53:20 836

原创 Learning Likelihood Estimates for Open Set Domain Adaptation——学习笔记

Learning Likelihood Estimates for Open Set Domain Adaptation——学习笔记文章目录Learning Likelihood Estimates for Open Set Domain Adaptation——学习笔记tipABSTRACT1.INTRODUCTION2.RELATED WORKOpen Set Domain Adaptation.3.METHOD3.1 Problem Setting3.2 Overall Architecture

2020-10-31 10:37:05 784

原创 Unsupervised Domain Adaptation by Backpropagation(2015)学习总结

Unsupervised Domain Adaptation by Backpropagation(2015)学习总结本文的主要贡献是提出了一种全新的度量源域和目标域数据分布差异性的方法(基于对抗的方法)。框架本文的框架对三个部分进行训练:一个是feature extractor,由卷积与池化层组成,用来提取特征;一个是label classifier,使用全连接层与逻辑分类器;一个是domian classifier,由全连接层与交叉熵分类器组成,它与feature extractor一起构

2020-10-28 20:45:34 764

原创 EMNIST: an extension of MNIST to handwritten letters(数据集简介)

EMNIST: an extension of MNIST to handwritten letters文章目录EMNIST: an extension of MNIST to handwritten lettersMNIST数据集概述EMNIST数据集MNIST数据集MNIST数据集已经成为机器学习、分类以及计算机视觉系统的一个基准数据集。由于其任务的可理解性和直观性、相对较小的规模和存储要求以及数据集本身的可访问性和易用性,MNIST数据集如今被广泛采用 。概述一个较好基准的重要性不可低估,而

2020-10-27 15:55:45 2299

原创 深度域适应综述_一般情况与复杂情况(学习笔记)

深度域适应综述_一般情况与复杂情况(学习笔记)文章目录深度域适应综述_一般情况与复杂情况(学习笔记)图释摘要概述文章主要内容1.迁移学习概述1.1 迁移学习, 域适应以及深度域适应的形式化定义迁移学习域适应深度域适应域适应与迁移学习的关系1.2 影响目标域任务性能的因素——泛化误差1.3 负迁移2 深度域适应2.1 基于领域分布差异的方法2.1.1 基于统计准则的方法⭐⭐⭐(1)MMD(Maximum Mean Discrepancy, 最大均值差异)(2)CORAL(Correlation Alignm

2020-10-27 10:51:51 3594 1

原创 Unsupervised Domain Adaptation by Backpropagation(2015)学习笔记

Unsupervised Domain Adaptation by Backpropagation(2015)学习笔记文章目录Unsupervised Domain Adaptation by Backpropagation(2015)学习笔记tipabstract1.introduction2.related work3.Deep Domain Adaptation3.1The model3.2 Optimization with backpropagation4.experiments4.1 res

2020-10-25 10:30:52 1083

原创 pycharm只显示左侧project,不显示项目目录

https://blog.csdn.net/weixin_31449201/article/details/81529954

2020-10-08 09:07:26 2711

转载 densenet

densenet文章目录densenet网络基本结构与resnet区别具体结构总结网络基本结构在深度学习网络中,随着网络深度的加深,梯度消失问题会愈加明显,目前很多论文都针对这个问题提出了解决方案,比如ResNet,Highway Networks,Stochastic depth,FractalNets等,尽管这些算法的网络结构有差别,但是核心都在于:create short paths from early layers to later layers(使用短连接把前层和后层连接)。那么作者是怎么

2020-09-21 11:00:05 519

原创 resnet

resnet文章目录resnet思路思路神经网络在反向传播过程中要不断地传播梯度,而当网络层数加深时,梯度在传播过程中会逐渐消失(假如采用Sigmoid函数,对于幅度为1的信号,每向后传递一层,梯度就衰减为原来的0.25,层数越多,衰减越厉害),导致无法对前面网络层的权重进行有效的调整。随着网络的加深,累计的参数变多,越容易导致梯度下降或者梯度爆炸,于是现象就是更深的网络有着更强大的表达,但是随着网络的增加,最终的效果却不好,于是resnet的思路就是在进行网络加深的时候进行一个类似短路的操作,保

2020-09-21 10:59:34 543 1

转载 VGG-Net

VGG-Net文章目录VGG-Net网络结构网络参数模型原理优点缺点VGG-16网络结构VGG的输入被设置为224x244大小的RGB图像,在训练集图像上对所有图像计算RGB均值,然后把图像作为输入传入VGG卷积网络,使用3x3或者1x1的filter,卷积步长被固定1。VGG全连接层有3层,根据卷积层+全连接层总数目的不同可以从VGG11 ~ VGG19,最少的VGG11有8个卷积层与3个全连接层,最多的VGG19有16个卷积层+3个全连接层。网络参数名称参数输入大小22

2020-09-21 10:59:05 598

转载 AlexNet

AlexNet文章目录AlexNet模型结构conv1conv2conv3conv4conv5fc6fc7fc8改进与创新模型结构AlexNet网络结构共有8层,前面5层是卷积层,后面3层是全连接层,最后一个全连接层的输出传递给一个1000路的softmax层,对应1000个类标签的分布。conv1输入数据:输入的原始图像大小为224×224×3(RGB图像),在训练时会经过预处理变为227×227×3卷积核:11×11×3;步长:4;数量(也就是输出个数):96卷积后数据:55×55×9

2020-09-21 10:58:16 630

转载 LeNet-5

LeNet-5文章目录LeNet-5基本结构输入层C1层-卷积层S2层-池化层(下采样层)C3层-卷积层S4层-池化层(下采样层)C5层-卷积层F6层-全连接层Output层-全连接层基本结构LeNet-5共有7层,不包含输入,每层都包含可训练参数;每个层有多个Feature Map,每个FeatureMap通过一种卷积滤波器提取输入的一种特征,然后每个FeatureMap有多个神经元。输入层输入图像的尺寸统一归一化为32*32。(本层不算LeNet-5的网络结构,传统上,不将输入层视为网络层次

2020-09-21 10:57:11 551

波士顿房价预测数据集.csv

波士顿房价预测案例中CSV格式有表头,可用于深度学习中的数据集,12类影响房价的数据乙级最后的平均房价都有

2020-02-05

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除