深度学习
文章平均质量分 56
一个叫欧维的程序员在此写博客
这个作者很懒,什么都没留下…
展开
-
使用python开发二维码识别功能、Docker镜像安装opencv-contrib-python、
python二维码识别、Docker环境封装原创 2022-09-13 15:07:10 · 1784 阅读 · 0 评论 -
二维卷积计算方式
二维卷积计算方式以keras构建的模型为例输入的图像shape为 (28, 28, 3),分别表示 (H, W, channels)。注:pytorch的输入shape为 (3,28, 28),分别表示 (channels,H, W)。各层输出各层计算结果:卷积层包含32个卷积核,每个卷积核的窗口大小为(3,3),不采用padding填充(padding=“valid”),窗口移动步长strides为1。因此,卷积层输出的矩阵高H为 (28 - 3 + 1) / strides = 26 ,因原创 2022-03-10 11:30:37 · 12143 阅读 · 0 评论 -
一维卷积计算方式
一维卷积计算方式以keras构建的模型为例模型输入 max_len 为50的文本,词嵌入维度为 128,64 个卷积核,kernel_size为1。代码以及模型每层输出shape如下:计算方式:对于每个文本,Embedding层将其转换为 (50, 128)形状的向量矩阵。因为卷积核大小kernel_size = 1,因此卷积核的形状为(1, 128)。每个卷积核分别与 50 个 shape为(1, 128) 的向量做点积运算,得到50个值。64个卷积核分别进行点积计算,最后输出 sha原创 2022-03-09 17:29:25 · 6833 阅读 · 2 评论 -
AI模型评价指标
分类模型评价指标转载:Confusion Matrix, Accuracy, Precision, Recall, F1 Score原创 2022-02-17 14:02:43 · 761 阅读 · 0 评论 -
PyTorch---图片分类器
PyTorch—图片分类器加载数据import torchimport torchvisionimport torchvision.transforms as transformstransform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])trainset = torch原创 2021-08-04 17:12:14 · 164 阅读 · 0 评论 -
PyTorch---神经网络Demo
PyTorch—神经网络Demoimport torchimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optimclass Net(nn.Module): def __init__(self): super(Net, self).__init__() # 1 input image channel, 6 output channels, 5x5 squar原创 2021-08-04 16:34:47 · 614 阅读 · 0 评论 -
Keras使用GPU训练
TensorFlow、Keras与GPU之间的版本对应版本问题—keras和tensorflow的版本对应关系tensorflow各个版本与cuda版本的对应关系~最新环境部署中cuda对应的tensorflow-gpu、keras版本、pytorch的对应版本使用GPU训练Keras模型Keras——检查GPU是否可用如何使用GPU训练keras模型...原创 2021-06-22 15:27:36 · 9584 阅读 · 1 评论 -
TF使用GPU
参考博客:【tensorflow2.0】使用单GPU训练模型tf2.0 指定GPU,并设置显存分配原创 2021-05-11 15:53:37 · 652 阅读 · 0 评论 -
Flask部署Keras模型
server端# Flaskimport flaskimport numpy as npfrom flask import Flaskfrom keras.models import load_modelapp = Flask(__name__)model.load_model("yourmodel.h5")# 模型预测,返回预测结果def model_predict(text, model): res = model.predict(text) return re原创 2020-12-14 16:05:25 · 369 阅读 · 1 评论 -
Keras---各种网络层的输入与输出
keras中各种网络层的输入与输出Cov1Dfrom keras import layerslayers.Conv1D(filters, kernel_size, activation=‘relu’, …)filters: 过滤器数量,决定输出后每个时间步上的维度,即下图中第二张图的宽度kernel_size:时间步的步长,下图第一张图中小方框的长度其中竖轴为时间步,横轴表示每个时间...原创 2019-12-11 14:14:37 · 1358 阅读 · 0 评论 -
Keras----Embedding层原理
Embedding()参数keras.layers.Embedding(input_dim, output_dim, embeddings_initializer='uniform', embeddings_regularizer=None, activity_regularizer=None, embeddings_constraint=None, mask_zero=False, input...原创 2020-05-07 11:19:34 · 972 阅读 · 0 评论 -
Attention注意力机制
对于注意力机制一知半解,便网上查阅资料来进行了解,记录以防日后遗忘。包含各博主文章内容,附链接。博客、文章链接:Attention注意力机制–原理与应用浅谈Attention注意力机制及其实现、带注意力机制的Seq2Seq翻译模型Attention注意力机制介绍自然语言处理中的自注意力机制(Self-attention Mechanism)什么是Attention注意力机制?简要描述...原创 2020-04-27 11:06:55 · 812 阅读 · 0 评论 -
TensorFlow2模型训练框架MNIST为例
step1、数据集预处理import tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras import layers, Sequential,datasets,optimizers# 将数据转换为tensordef preprocess(x, y): # [0~255] => [-1~1]...原创 2020-04-24 16:32:20 · 418 阅读 · 0 评论 -
Keras---内置数据集、模型的加载及保存位置
keras内置数据集内置数据集包含:1.mnist / fashion_mnist2.boston_housing3.cifar10/1004.imdb5.reuters加载方式:from tensorflow.keras import datasets(x_train, y_train), (x_test, y_test) = datasets.cifar100.load_...原创 2020-04-24 10:05:45 · 771 阅读 · 0 评论 -
前向传播算法手动实现(MNIST数据集)
前向传播公式如下:step1:加载库及数据import numpy as npimport tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras import datasets# 获取训练集(x, y), _ = datasets.mnist.load_data() # 得到数据为numpy格式# ...原创 2020-04-14 16:49:31 · 333 阅读 · 0 评论