论文项目总结02-前端模块总结

需求一.将数据显示到页面

 1.1 需求分解

第一步、在页面加载完成后通过axios发送请求

 //页面加载完成后执行
        created: function () {
            _self = this;
            //通过localStorage的getItem函数获取缓存的uid
            var url = "http://localhost:8080/paper1/paper/list?pageIndex="+this.pageIndex+"&pageSize="+this.pageSize+"&uid="+localStorage.getItem("uid");
            this.requestPapers(url); //调用请求论文列表的函数发送请求
        }
    });
 //请求论文列表
            requestPapers(url){
                //通过axios发送请求get请求,then响应
                axios.get(url).then(respones => {
                    console.log(respones.data);
                    this.papers = respones.data.data; //给论文列表赋值
                    this.pageTotle = respones.data.pageTotle; //给总条数赋值
                    //Math.ceril函数=》小数取整,向上取整
                    this.pageNum = Math.ceil(this.pageTotle / this.pageSize); //计算页数
                });
            },

第2步、在data属性中绑定数据

   data: {
            papers: null, //论文列表

第3步、通过v-for指令显示到页面上(在table上)


                
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个简单的示例,展示如何在PyTorch中实现Swin Transformer模块的代码: ```python import torch import torch.nn as nn import torch.nn.functional as F class SwinTransformerBlock(nn.Module): def __init__(self, dim, num_heads, mlp_ratio=4): super(SwinTransformerBlock, self).__init__() self.norm1 = nn.LayerNorm(dim) self.attn = nn.MultiheadAttention(dim, num_heads) self.norm2 = nn.LayerNorm(dim) self.mlp = nn.Sequential( nn.Linear(dim, dim * mlp_ratio), nn.GELU(), nn.Linear(dim * mlp_ratio, dim) ) def forward(self, x): residual = x x = self.norm1(x) x = x.permute(1, 0, 2) # (seq_len, batch_size, dim) x, _ = self.attn(x, x, x) # self-attention x = x.permute(1, 0, 2) # (batch_size, seq_len, dim) x += residual residual = x x = self.norm2(x) x = self.mlp(x) # feed-forward network x += residual return x class SwinTransformer(nn.Module): def __init__(self, num_layers, dim, num_heads, mlp_ratio=4): super(SwinTransformer, self).__init__() self.embedding = nn.Linear(128, dim) # input embedding self.layers = nn.ModuleList([ SwinTransformerBlock(dim, num_heads, mlp_ratio) for _ in range(num_layers) ]) self.norm = nn.LayerNorm(dim) def forward(self, x): x = self.embedding(x) # input embedding for layer in self.layers: x = layer(x) x = self.norm(x) return x ``` 上述代码定义了一个SwinTransformerBlock类和一个SwinTransformer类。SwinTransformerBlock类表示Swin Transformer模块的基本构建块,包括多头自注意力机制和前馈网络。SwinTransformer类则由多个SwinTransformerBlock组成,用于构建整个Swin Transformer模块。 请注意,上述代码只是一个简化的示例,实际使用时可能需要根据具体需求进行适当的修改和调整。此外,代码中的输入维度、参数设置等也可能需要根据实际情况进行调整。 希望这个示例能对你理解如何实现Swin Transformer模块有所帮助。如果需要更详细的代码或更深入的解释,请参考相关论文和开源实现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值