![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习论文
文章平均质量分 93
夜半罟霖
人类诗意地栖居在大地之上,这是宇宙对于存在的回答
展开
-
KAN保姆级解析(2)--KAN源码中的BSpline插值
KAN源码中``KANlayer``模块涉及到了许多``coef2curve``和``coef2curve``操作,这里实际就是在利用Bspline曲线进行插值或者说拟合,以下介绍相关的BSpline插值知识。后一篇中我们将结合相关代码详细解释Bspline是如何融入到KAN的计算过程中的。原创 2024-05-17 12:05:08 · 1158 阅读 · 0 评论 -
KAN保姆级解析(1)--Bspline曲线、Bspline插值、Bspline拟合概念辨析
这一系列文章主要是为了解决KAN论文中对于Bspline介绍语焉不详的问题,为没有图形学、动态路径规划等领域基础知识的人提供一些BSpline的相关只知识。网络上现有的关于Bspline的介绍往往是从图形学角度出发,会略过许多的简单概念辨析,默认读者有相关图形学的基础,且以曲线生成为导向。而本文则尽量从新手的角度出发,解释KAN源码中所用到的Bspline,因此尽量简单明确,一切条件使用最基础、最理想的情况。原创 2024-05-17 11:58:07 · 683 阅读 · 0 评论 -
自监督对比学习系列论文(一):无引导对比学习--MOCO,SimCLR
对比学习(self-supervised learning)的应用场景是用无标记或者少标记的数据进行模型的预训练以得到一个较好的预训练模型,然后便可将该模型轻松的迁移到到下游任务上。显而易见的,对比学习的难点在于我们如何在没有标注的情况下来指导模型的训练,也就是如何设计pretext task。原创 2023-05-22 17:11:28 · 1008 阅读 · 0 评论 -
Unsupervised Domain Adaption (UDA)及domain shift介绍
本文主要对UDA问题进行了简略的介绍,并且给出了一些常用的方法,最后主要对Self trainging 方法在UDA上的应用进行了介绍,对domain shift问题进行分析。原创 2023-05-08 16:34:23 · 1172 阅读 · 0 评论 -
长尾分布系列论文解析(三)On Multi-Domain Long-Tailed Recognition, Imbalanced Domain Generalization and Beyond
长尾分布系列论文解析第三篇:关注多域学习中的长尾分布问题。相关论文:On Multi-Domain Long-Tailed Recognition, Imbalanced Domain Generalization and Beyond原创 2022-11-21 09:44:11 · 779 阅读 · 1 评论 -
长尾分布系列论文解析(二)Delving into Deep Imbalanced Regression
长尾分布系列论文解析:回归问题中的长尾分布。相关论文:Delving into Deep Imbalanced Regression原创 2022-11-21 09:37:05 · 1072 阅读 · 0 评论 -
长尾分布系列论文解析(一)Decoupling Representation and Classifier for Long-Tailed Recognition
长尾分布系列论文解析:分类问题中的长尾分布。论文名:Decoupling Representation and Classifier for Long-Tailed Recognition原创 2022-11-21 09:28:56 · 2363 阅读 · 1 评论 -
神经受控微分方程(NCDE)介绍
Neural controlled differential equations (NCDE)介绍原创 2022-09-06 09:59:42 · 2221 阅读 · 0 评论 -
神经常微分方程(NODE)介绍
Neural differential equations (NODE)的介绍原创 2022-09-06 09:56:00 · 1822 阅读 · 0 评论 -
path development介绍
Path development是一种描述时许序列的方法,相较于Path signature,具有无需阶段,维数和输入维数无关的优势。原创 2022-07-30 09:19:56 · 344 阅读 · 1 评论 -
transformer一统天下?depth-wise conv有话要说
本文是对《ONTHECONNECTIONBETWEENLOCALATTENTIONANDDYNAMICDEPTH-WISECONVOLUTION》的分析,作者在cnn领域找到了和localattention模块相似的机制,以此构建出了可以和swintransformer分庭抗礼的CNN架构。原创 2022-07-20 22:07:03 · 1219 阅读 · 0 评论 -
空洞卷积详解(输入输出大小分析)
空洞卷积的详细分析,对输入输出的大小进行了推导;并介绍了相关改进版本。原创 2022-07-18 18:23:21 · 5439 阅读 · 5 评论 -
转置卷积理论解释(输入输出大小分析)
转置卷积的理论解释和输入输出大小的分析推导。原创 2022-07-05 23:28:43 · 1251 阅读 · 6 评论 -
RCNN、Fast-RCNN、Faster-RCNN介绍
RCNN,Fast-RCNN,Faster-RCNN介绍原创 2022-06-22 11:37:46 · 3592 阅读 · 0 评论 -
论文解析:SCA-CNN
论文解析:《SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networksfor Image Captioning》原创 2022-05-10 21:02:47 · 847 阅读 · 0 评论 -
论文解析:DRAW
论文解析:DARW : A Recurrent Neural Network For Image Generation原创 2022-05-03 21:46:39 · 390 阅读 · 0 评论 -
论文解析:Inception_V2(Batch Normalization)
Batch Normalization论文解析原创 2022-04-04 22:40:29 · 2290 阅读 · 0 评论 -
论文解析:Inception-V3设计思路分析
Inception系列论文阅读的第二篇,分析了Inception-V3的设计结构原创 2022-03-27 15:12:43 · 1505 阅读 · 0 评论 -
论文解析:理论分析Inception模块和GoogLeNet
本文主要是梳理了Inception模块的设计思路,重点关注了文章一直在强调的“稀疏性”,分析了这种稀疏性是如何和多尺度卷积核联系在一起的。原创 2022-03-26 12:19:29 · 2298 阅读 · 0 评论 -
论文解析:AR capsulenet
对capsule系列论文:《Attention Routing Between Capsules Jaewoong Choi Hyun Seo Suii Im Myungjoo Kan》的解析原创 2022-03-08 23:06:31 · 263 阅读 · 0 评论 -
论文解析:DenseNet
DenseNet论文解析原创 2022-02-27 21:46:36 · 766 阅读 · 0 评论 -
论文解析:变分自编码器
VAE(变分自编码器) 变分自编码器来自于论文《Auto-Encoding Variational Bayes》,是一种生成式模型,生成式模型的概念在CS229中已经有过介绍了,简单来说,对于一个判别式模型来说,我们希望得到的是P(y∣x)P(y|x)P(y∣x),即在给定了样本x的情况下希望得到其输出y的分布(在回归模型里这通常表现为ML求期望如Linear family,在分类模型里这就简单的表示为softamx的输出);而生成式模型的目的则是希望求取P(x∣y)P(x|y)P(x∣y),即想要知道输原创 2021-11-19 11:36:08 · 2590 阅读 · 2 评论 -
论文解析:Capsule Network
Capsule Network解析原创 2022-02-05 22:10:12 · 1044 阅读 · 0 评论 -
论文解析:Matrix Capsule
CapsuleNet的第二篇论文解析,重点分析了路由算法的改进。原创 2022-02-19 22:22:38 · 839 阅读 · 0 评论