自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 Swin Transformer, SwinIR, SwinFIR

痛点:尺度变化 – 提出Hieracical.attention的变化: sliding window attention,减少了attention的计算复杂度,同时通过sliding增强connection,实现全局attention和ViT的区别:ViT16*下采样,尺寸单一;Swin Transformer多尺度

2022-11-08 11:02:19 974

原创 Transformer, DETR, ViT, SwinIR

Transformer实现的意义和RNN是一样的,将时序信息传递给输入进行计算,实现时序信息的传递。RNN中是前一时刻传递给后一时刻,Transformer中是通过attention在全局的序列中提取信息。

2022-11-08 10:55:53 1439

原创 【经典论文回顾】ResNet: Deep Residual Learning for IR

ResNet目的:显示表示Identity Mapping, 有效减少了更深的网络的FLOP。

2022-11-08 10:49:43 416

原创 从RGB到多通道图像的迁移学习

基于Segmentation Models PyTorch (smp) 实现

2022-05-08 02:30:00 714

原创 Data Augmentation: 基于albumentations库的图像数据增强

​ Albumentations 是一个用于图像增强的 Python 库。图像增强用于深度学习和计算机视觉任务,以提高训练模型的质量。图像增强的目的是从现有数据中创建新的训练样本。

2022-04-30 13:19:18 3802

原创 【機器學習2021】9 Generative Adversarial Network (GAN)

【機器學習2021】生成式對抗網路 (Generative Adversarial Network, GAN) (一) – 基本概念介紹Generation的理由:why distribution?训练资料中相同的input,可能需要对应不同的outputGenerative Adversarial Network (GAN)Basic Idea of GANGenerator / DiscriminatiorGNN Algorithm ( in each iteration, do step

2022-04-26 16:36:57 1658

原创 skip-gram推荐模型笔记

item-item推荐算法模型分析。用到了word2vec, CF, random walk, skip-gram, embedding

2022-04-19 11:03:03 803

原创 【機器學習2021】8.3 Transformer Training

【機器學習2021】Transformer (下)8.1/8.2是train好的模型的运作方式,接下来关注如何进行training和testingTeacher Forcing: use the GT as input训练目标:minimize cross entropy(见4.)Traning Tips (train seq2seq model)1. Copy Mechanism2. Guide Attention客制化attention,通过对任务的理解,强制要求attention的顺

2022-04-10 20:43:10 936 1

原创 【機器學習2021】8.2 Transformer Decoder

【機器學習2021】Transformer (下)以Autoregressive Decoder - Speech Recognition为例Error Propagation: 一步错步步错产生Exposure bias:解决方法 --scheduled samplinghttps://medium.com/analytics-vidhya/seq2seq-model-and-the-exposure-bias-problem-962bb5607097​ 原始论文结构图:总体Input:

2022-04-10 20:39:27 712

原创 【機器學習2021】8.1 Transformer Encoder

【機器學習2021】Transformer(上)Seq2seq的问题定义…Encoder​ 有很多个block,每个block是好几个layer​ block的图解结构,对应下面的各个步骤:取self-attention把self-attention得到的向量加上原向量(residual connection思路,一种常用的网络架构)取norm,这里是Layer Norm,类似batch norm的另一种norm。​ Batch Norm是对于不同example的同一维度

2022-03-29 22:18:51 257

原创 【機器學習2021】7.5 Positional Encoding

Transformer的input没有位置概念,需要Positional Encoding / Positional Embedding其实就是在aia^iai加上一个eie^iei,这个eie^iei是根据某种embedding算法求出来的值,想让网络learn出位置信息对比不同的positional embedding算法的论文:g算法的论文:...

2022-03-29 22:15:24 57

原创 【機器學習2021】7 Self-attention

【機器學習2021】自注意力機制 (Self-attention)Transformer: Attention is all you needSelf-attention input可以是hidden layer的output1. Find the relevant vector in a sequence计算相关度(relevant) α\alphaα的方法: Dot-product & Additive每一个 α\alphaα 乘上不同的矩阵得到 q,k,vq, k, vq,k,v

2022-03-29 22:13:23 282

原创 【機器學習2021】6 Convolutional Neural Networks

卷積神經網路 (Convolutional Neural Networks, CNN)Model Bias:https://stackoverflow.com/questions/2480650/what-is-the-role-of-the-bias-in-neural-networksI think that biases are almost always helpful. In effect, a bias value allows you to shift the activation fu

2022-03-29 22:09:14 91

原创 【機器學習2021】5 Batch Normalization

類神經網路訓練不起來怎麼辦 (五): 批次標準化 (Batch Normalization) 簡介做Feature Normalization:为了更好的train, error surface更平滑, train更快(可能也更好)实做中,Feature Normalization在Activation Function(e.g. Sigmoid)前或后,效果差异不大网络中经过normalization之后,可能会再乘回 γ和β \gamma 和 \betaγ和β ,让特征回到原来的大小比例St

2022-03-29 22:07:35 262

原创 【機器學習2021】4 Classification Loss

類神經網路訓練不起來怎麼辦 (四):損失函數 (Loss) 也可能有影響Mean Square Error & Cross entropy分类任务时:softmax和cross entropy常绑定使用minimize cross entropy == maimum likelihood

2022-03-29 22:06:26 84

原创 【機器學習2021】3.5 Framework of ML

機器學習任務攻略Framework of Machine LearningStep1: Function with unknownStep2: define loss function from training dataStep3: optimizationGeneral GuideLoss很高的话:1 模型简单了 加输入的特征数、加层数…2 optimizer不够好 比如gradient decent优化效果不行判断是1还是2:Model Bias v.s. Optimizati

2022-03-29 22:04:41 76

原创 【機器學習2021】1-3 Local Minima

類神經網路訓練不起來怎麼辦 (一): 局部最小值 (local minima) 與鞍點 (saddle point)

2022-03-29 22:01:46 63

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除