人工智能
文章平均质量分 70
樱岛の鲸
一个喜欢金融的程序猿.
展开
-
PyTorch: 从零开始,用迁移学习,十步实现一个视觉项目
网上的大多数博客,都是将某个模型的原理以及如何实现,但很少有人从零开始写如何构建一个项目1. 读取图片import cv2def get_pic(file_name="00002A02.jpg"): """读取图片""" path = "../../imgdata/" + file_name # 定义图片路径 img = cv2.imread(path) # 读取图片 return img2. 处理图片torchvision.transform介绍原创 2021-09-19 21:41:38 · 339 阅读 · 0 评论 -
Transformer:为什么要在计算机视觉领域使用Transformer?(三)
三. Transformer代码理解1. PyTorch基础语法介绍import torch.nn.functional as Ftorch.matmul(t1, t2):矩阵乘法,可以高维。tensor.transpose(d1, d2):矩阵转置,两个维度互换。tensor.unsqueeze(0):增加维度,便于批量处理。tensor.clone():充当中间变量,会保留在计算图中,参与梯度计算(回传叠加),但是一般不会保留自身梯度。tensor.detach():与原始tensor共原创 2021-05-02 00:24:43 · 399 阅读 · 5 评论 -
Transformer:为什么要在计算机视觉领域使用Transformer?(二)
二. Transformer理解1. Transformer原理分析上图描述的是一个seq2seq的model,左侧为 Encoder block,右侧为 Decoder block。黄色圈中的部分为Multi-Head Attention,是由多个Self-Attention组成的,可以看到 Encoder block 包含一个 Multi-Head Attention,而 Decoder block 包含两个 Multi-Head Attention (其中有一个用到 Masked)。Multi-原创 2021-05-01 16:11:13 · 546 阅读 · 5 评论 -
Transformer:为什么要在计算机视觉领域使用Transformer?(一)
一. self-attention1. 处理Sequence数据要处理一个Sequence,最常想到的就是使用RNN,它的输入是一串vector sequence,输出是另一串vector sequence。假设是一个single directional的RNN,那当输出b4时,默认a1-a4都已经看过了。RNN非常擅长于处理input是一个sequence的状况。但RNN很不容易并行化 (hard to parallel)。为此,有人提出用CNN代替RNN。橘色的三角形表示一个filter,每次原创 2021-04-30 18:27:37 · 1027 阅读 · 0 评论 -
`Model.XXX` is not supported when the `Model` instance was constructed with eager mode enabled
问题: Calling Model.predict in graph mode is not supported when the Model instance was constructed with eager mode enabled解决:model = Sequential()model.call = tf.function(model.call)原创 2021-03-04 22:58:44 · 3379 阅读 · 9 评论 -
pytorch安装流程及注意事项
安装了几次pytorch, 这次终于成功了, 以此纪念一下.我用pip安装没有成功, 然后我用的anaconda安装, 随便熟悉了一下操作安装完anaconda后, 修改其镜像源conda config --add channels http://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/conda config --add channels http://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud原创 2020-10-29 00:08:16 · 595 阅读 · 0 评论