项目实训-智能生物序列分析平台-后端模块(8)

模型代码

考虑到平台的扩展性和丰富性,我们添加了更多传统的机器学习分类模型+transformer的一些变种+图网络GNN的一些前沿扩展。

这篇博客主要围绕transformer的一些变种来进行解读。

NLP traditional GNN
TransformerEncoder DNN TextGNN
ReformerEncoder RNN GCN
PerformerEncoder LSTM GAN
LinformerEncoder BiLSTM
RoutingTransformerEncoder LSTMAttention
DNA bert GRU
Prot bert TextCNN
TextRCNN
VDCNN
RNN_CNN

Reformer

这篇论文来自ICLR 2020的一项工作 https://openreview.net/pdf?id=rkgNKkHtvB,针对长序列的Transformer训练问题,Reformer给出了一种存储极致压缩的方案.

Reformer主要涉及了四处创新点:

  1. 使用Axial Positional Embedding来减小位置编码矩阵
  2. 提出了基于局部敏感性哈希算法(Locality Sensitive Hashing, LSH)的self-attention机制
  3. 提出可以使用分段的方式来处理全连接层(FFN)的计算过程,每次只计算一部分,从而不需要将整个序列加载到内存
  4. 使用可逆(Reversible)残差连接来代替传统残差连接,好处是在前向过程中前 [公式] 层的中间值和输出都不需要存储了,只保留最后一层的输出

这里我们直接采用了Reformer-pytorch提供的库来进行实现

安装

$ pip install reformer_pytorch

示例

一个简单的模型架构搭建方式

import torch
from reformer_pytorch import ReformerLM

model = ReformerLM(
    num_tokens= 20000,
    dim = 1024,
    depth = 12,
    max_seq_len = 8192,
    heads = 8,
    lsh_dropout = 0.1,
    ff_dropout = 0.1,
    post_attn_dropout = 0.1,
    layer_dropout = 0.1
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值