- 博客(20)
- 收藏
- 关注
原创 Stereo R-CNN1.0:
Stereo R-CNN1.0:代码克隆到自己电脑上的一些问题,只记录了从python setup.py build develop 之后出现的问题。之前的问题忘记记录了问题问题1:4 errors detected in the compilation of "C:/Users/none_/AppData/Local/Temp/tmpxft_00002310_00000000-10_ROIAlign_cuda.cpp1.ii". error: command 'C:\\Program Files\
2022-03-14 21:02:36 2200
原创 互信息估计器
互信息估计器链接: 香浓信息量,信息熵,交叉熵,相对熵(KL散度),JS散度,条件熵,信息增益,互信息.链接: MINE——基于神经网络的互信息估计器.
2021-03-12 10:16:01 1213
原创 dynamic_rnn
from __future__ import print_functionimport tensorflow as tfimport random生成数据# ====================# TOY DATA GENERATOR# ====================class ToySequenceData(object): """ Generate sequence of data with dynamic length. This class gene
2020-10-30 15:09:00 194
原创 Bi_directional_rnn
数据集from __future__ import print_functionimport tensorflow as tffrom tensorflow.contrib import rnnimport numpy as np# Import MNIST datafrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("/tmp/data/", one_hot
2020-10-30 09:36:12 284
原创 recurrent_network_tf1.0
数据集from __future__ import print_functionimport tensorflow as tffrom tensorflow.contrib import rnn# Import MNIST datafrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("/tmp/data/", one_hot=True)参数设置# Trai
2020-10-30 09:23:20 85
原创 TF1.0_convolution-network_笔记
逐句:with tf.variable_scope('ConvNet', reuse=reuse):通俗理解tf.name_scope()、tf.variable_scope()// An highlighted blockvar foo = 'bar';// An highlighted blockvar foo = 'bar';// An highlighted blockvar foo = 'bar';// An highlighted blockvar foo = '
2020-10-15 15:43:11 164
原创 TF1.0_Convolutional-Neural-Network-raw_笔记
逐句x = tf.nn.conv2d(x, W, strides=[1, strides, strides, 1], padding='SAME')函数定义:TensorFlow: tf.nn.conv2d()tf.nn.conv2d( input, filter, strides, padding, use_cudnn_on_gpu=True, data_format='NHWC', dilations=[1, 1, 1, 1],
2020-10-12 15:42:20 161
原创 TF1.0_Auto Encoder Example_笔记
逐句mnist = input_data.read_data_sets("/tmp/data/", one_hot=True)mnist数据集不能直接使用,需要通过input_data模块进行初始化,否则会报mnist is not definedfrom tensorflow.examples.tutorials.mnist import input_dataX = tf.placeholder("float", [None, num_input])在Tensoflow2.0以前,还是静
2020-10-06 11:29:18 157
原创 2020-09-28-正确率计算
正确率计算tf.math.top_kimport tensorflow as tfimport osos.environ['TE_CPP_MIN_LOG_LEVEL'] = '2'tf.random.set_seed(2467)def accuracy(output, target, topk=(1,)): maxk = max(topk) batch_size = target.shape[0] pred = tf.math.top_k(output, maxk)
2020-09-28 08:36:13 203
原创 练习0:前向传播
深度学习–前向传播练习0时间:2020.9.24数据:处理,iterw1,w2,w3,b1,b2,b3…epoch, step,tf.GradientTape():w1,w2,w3,b1,b2,b3,loss更新import tensorflow as tffrom tensorflow import kerasfrom keras import datasetsimport os(x, y), _ = datasets.mnist.load_data()x = tf.c
2020-09-24 22:24:56 104
原创 TF2.0环境
TensorFlow ,CUDA,cuDNN版本对应https://tensorflow.google.cn/install/source_windowsCUDA安装:下载:https://link.zhihu.com/?target=https%3A//developer.nvidia.com/cuda-toolkit-archive安装:1.没有不勾2.当前版本(后)大于最新版本(前)不勾测试:...
2020-09-15 16:56:42 220
原创 练习6:ResNet练习
深度学习–ResNet练习练习56时间:2020.8.22昂:BasicBlock:conv1 + bn1 + reluconv2 + bn2Identity 注意维度一致build_resblock:第一个BasicBlock: 给一个下采样功能其他的BasicBlock: 不进行下采样功能ResNet:一个根部: 第一层resblock堆叠: 根据不同的ResNet给予不同的layer_dims进行堆叠分类的fc: h, w 未知搞个均值拉好
2020-08-22 01:04:07 322
原创 练习5:CIFAR100练习
深度学习–CIFAR100练习练习5时间:2020.8.20昂:数据预处理网络构建损失函数计算梯度更新参数训练测试网络:Something:数据集链接:http://www.cs.toronto.edu/~kriz/cifar-100-python.tar.gz还是少了点什么[待补]不急代码:import tensorflow as tffrom tensorflow.keras import layers, optimizers, datasets, Sequent
2020-08-19 16:35:35 1078
原创 练习4:CIFAR10自定义网络练习
深度学习–CIFAR10自定义网络练习练习4时间:2020.8.19昂:数据预处理自定义网络层自定义网模型模型配置与训练模型保存和加载Something:数据集下载慢:下载器链接:https://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz文件位置:C:\Users\用户名.keras\datasets修改文件名(因为它改了):cifar-10-batches-py.tar.gz似乎少了点什么,不急[待补]代码impo
2020-08-19 12:35:28 188
原创 练习3:手写数字
深度学习-手写数字(层)练习3时间:2020.8.18解析:数据预处理; 模型建立; 梯度计算; 更新参数; loop; test测试注意数据计算后是啥Something:iter() next()tf.losses.MSE() 均方误差tf.losses.categorical_crossentropy() 交叉熵损失好像又少了点什么东西[待补]…代码:import tensorflow as tffrom tensorflow import kerasfrom t
2020-08-18 20:24:37 337
原创 练习2:手写数字体验
深度学习–手写数字体验练习2时间:2020.8.18解析:数据集和模型准备计算loss, out --> y,根据loss,计算梯度来更新参数自动求导:tape.gradient(loss, 优化参数)自动更新:optimizerloop:循环一次数据集训练进行一次训练:epoch一次batch进行一次训练:stepSomething:optimizers.SGD随机梯度下降优化器似乎少了点什么…昂,不急代码:import osimport tensorflow
2020-08-18 12:55:43 198
原创 练习1:线性回归(tf)
深度学习–线性回归练习练习1时间:2020.8.17解析:代码:import numpy as np# y = wx + b#第一步: 计算lossdef compute_error_for_line_given_points(b, w, points): totalError = 0 for i in range(0, len(points)): x = points[i, 0] y = points[i, 1] #com
2020-08-18 00:10:50 158
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人