深度学习
文章平均质量分 77
基于Pytorch的各种杂七杂八的深度学习算法资料
瞌睡的代码仓库
有效的休息能带来更高效的学习
展开
-
(简单易学)使用 CVPR 2024 的 ViTamin作为backbone进行自己的分割任务
论文链接:https://arxiv.org/pdf/2404.02132项目主页:https://beckschen.github.io/vitamin下面是本文基于vitamin作为backebone,并添加decode层实现的分割模型项目地址:https://github.com/Human9000/vitamin-seg-torch提取了vitamin中的patch_embed输出,vitaminblocks的第1,3,6,9,12,14层的输出。 分别作为en1,en2,...,en6 这些进行原创 2024-08-14 11:58:45 · 295 阅读 · 0 评论 -
(简单易学)NdMamba2的纯PyTorch实现的多维实现。任意模态(signal | nlp | cv | audio| vedio)的快速Mamba2缝合神器(支持1d,2d,3d,...Nd)
Human9000/BiMamba2-Any-Dimension-By-Torch: 只使用pytorch实现的双向Mamba2(BiMamba2)提供N维度支持,包括1d,2d,3d数据的支持,借助BiMamba2你可以很方便的缝合到任意模型中去提高精度。 (github.com)原创 2024-08-02 15:42:46 · 465 阅读 · 1 评论 -
(简单易学)mamba2核心ssd算法逻辑整理(基于mamba2-minimal实现)
SSD 是一种基于状态空间模型的序列处理方法,其核心思想是将序列分解成若干个块 (chunk),并在块内和块间进行高效的信息传递。SSD 利用了矩阵的低秩分解和指数衰减特性,将原本复杂的序列建模问题转化为一系列高效的矩阵乘法运算,从而显著降低了计算复杂度。原创 2024-07-31 13:44:32 · 1503 阅读 · 0 评论 -
(简单易学)将mamba2添加到你的模型(NLP | CV-2d)中【PyTorch】
你可以调整的参数d_model,deviced_model 对应特征向量的大小,必须是64的倍数(不懂的看调用部分的参数介绍)device需要在模块创建的时候提前指定,不支持定义后调整在这里的分为输入参数和输出参数输入参数x:这里要求seqlen是句子长度(图像对应像素数量),d_model是特征向量大小(图像对应通道数),另外这里要求seqlen和d_model均可被64整除输出参数y:这里和x的形状是保持完全一致的h:这是隐藏层的全部参数,包含了conv_state和ssd_state。原创 2024-08-01 13:53:52 · 782 阅读 · 1 评论