深度学习
文章平均质量分 65
樱岛の鲸
这个作者很懒,什么都没留下…
展开
-
python+flask+后端api+腾讯云轻量应用服务器+centos
1. 购买腾讯云轻量应用服务器 2. 开放端口 3. XShell登录服务器 4. 后端代码 # 实例化 Flask app = Flask(__name__) BASE_DIR = os.path.dirname(os.path.abspath(__file__)) # 服务返回 @app.route('/') def hello_world(): return "hello world" if __name__ == '__main__': app.run(host='0.0原创 2021-09-28 20:30:16 · 356 阅读 · 0 评论 -
云服务器(centos) conda command not find
在根目录下, ls 命令查看文件, 发现有anaconda3, 说明我们的anaconda3的安装路径为: ~/anaconda3/bin 其中核心就是找到安装路径 sudo vim /etc/profile # 在最后一行加上: export PATH=$PATH:~/anaconda3/bin sudo vim ~/.bashrc # 在最后一行加上: export PATH=$PATH:~/anaconda3/bin 激活环境 source ~/.bashrc 查看版本 conda.原创 2021-09-26 17:30:36 · 585 阅读 · 1 评论 -
PyTorch: 从零开始,用迁移学习,十步实现一个视觉项目
网上的大多数博客,都是将某个模型的原理以及如何实现,但很少有人从零开始写如何构建一个项目 1. 读取图片 import cv2 def get_pic(file_name="00002A02.jpg"): """读取图片""" path = "../../imgdata/" + file_name # 定义图片路径 img = cv2.imread(path) # 读取图片 return img 2. 处理图片 torchvision.transform介绍原创 2021-09-19 21:41:38 · 339 阅读 · 0 评论 -
Transformer:为什么要在计算机视觉领域使用Transformer?(三)
三. Transformer代码理解 1. PyTorch基础语法介绍 import torch.nn.functional as F torch.matmul(t1, t2):矩阵乘法,可以高维。 tensor.transpose(d1, d2):矩阵转置,两个维度互换。 tensor.unsqueeze(0):增加维度,便于批量处理。 tensor.clone():充当中间变量,会保留在计算图中,参与梯度计算(回传叠加),但是一般不会保留自身梯度。 tensor.detach():与原始tensor共原创 2021-05-02 00:24:43 · 399 阅读 · 5 评论 -
Transformer:为什么要在计算机视觉领域使用Transformer?(二)
二. Transformer理解 1. Transformer原理分析 上图描述的是一个seq2seq的model,左侧为 Encoder block,右侧为 Decoder block。黄色圈中的部分为Multi-Head Attention,是由多个Self-Attention组成的,可以看到 Encoder block 包含一个 Multi-Head Attention,而 Decoder block 包含两个 Multi-Head Attention (其中有一个用到 Masked)。Multi-原创 2021-05-01 16:11:13 · 546 阅读 · 5 评论 -
Transformer:为什么要在计算机视觉领域使用Transformer?(一)
一. self-attention 1. 处理Sequence数据 要处理一个Sequence,最常想到的就是使用RNN,它的输入是一串vector sequence,输出是另一串vector sequence。假设是一个single directional的RNN,那当输出b4时,默认a1-a4都已经看过了。 RNN非常擅长于处理input是一个sequence的状况。但RNN很不容易并行化 (hard to parallel)。 为此,有人提出用CNN代替RNN。橘色的三角形表示一个filter,每次原创 2021-04-30 18:27:37 · 1027 阅读 · 0 评论