tensorflow
未生无
这个作者很懒,什么都没留下…
展开
-
将MNIST数据集转换成.jpg图片
MNIST数据集简介# MNIST 数据集合共包含70000张手写数字图片# 其中60000张用作训练集# 10...转载 2020-06-22 16:33:39 · 1481 阅读 · 1 评论 -
Keras.metrics中的accuracy总结
转载来源:https://zhuanlan.zhihu.com/p/952934401. 背景Accuracy(准确率)是机器学习中最简单的一种评价模型好坏的指标,每一个从事机器学习工作的人一定都使用过这个指标。没从事过机器学习的人大都也知道这个指标,比如你去向别人推销一款自己做出来的字符识别软件,人家一定会问你准确率是多少。准确率听起来简单,但不是所有人都能理解得透彻,本文将介绍Keras中a...转载 2020-04-22 18:29:10 · 6322 阅读 · 4 评论 -
TensorFlow学习 理解batchsize及其大小的影响
之前面试过程中被问到过两个问题: (1)深度学习中batch size的大小对训练过程的影响是什么样的? (2)有些时候不可避免地要用超大batch,比如人脸识别,可能每个batch要有几万甚至几十万张人脸图像,训练过程中超大batch有什么优缺点,如何尽可能地避免超大batch带来的负面影响?-------------------------------面试版回答----------...转载 2020-04-02 13:28:00 · 5097 阅读 · 1 评论 -
TensorFlow实战 keras调用多GPU训练模型
参考博客:https://blog.csdn.net/lscelory/article/details/83579062服务器中有多个GPU,选择特定的GPU运行程序可在程序运行命令前使用:CUDA_VISIBLE_DEVICES=0命令。0为服务器中的GPU编号,可以为0, 1, 2, 3等,表明对程序可见的GPU编号。设置示例: 在python程序中,import osos.envir...原创 2020-04-01 23:18:36 · 2340 阅读 · 1 评论 -
TensorFlow学习 深度学习参数初始化(weights initializer)策略
前言:深度学习的初始化参数指的是在网络训练之前,对各个节点的权重和偏置进行初始化的过程,很多时候我们以为这个初始化是无关紧要的,不需要什么讲究,但是实际上,一个参数的初始化关系到网络能否训练出好的结果或者是以多快的速度收敛,这都是至关重要的,有时候因为参数初始化的缘故,甚至得不到好的训练结果。本文就来讨论一下参数初始化到底有什么讲究以及常见的参数初始化的一些策略方法。阅读本文需要神经网络相关背景,...转载 2020-03-29 16:54:57 · 2647 阅读 · 1 评论 -
tensorflow各个版本的CUDA以及Cudnn版本对应关系(转)
概述,需要注意以下几个问题:(1)NVIDIA的显卡驱动程序和CUDA完全是两个不同的概念哦!CUDA是NVIDIA推出的用于自家GPU的并行计算框架,也就是说CUDA只能在NVIDIA的GPU上运行,而且只有当要解决的计算问题是可以大量并行计算的时候才能发挥CUDA的作用。CUDA的本质是一个工具包(ToolKit);但是二者虽然不一样的。显卡驱动的安装:当我们使用一台电脑的时候默认的已...转载 2020-03-26 13:14:36 · 1870 阅读 · 0 评论 -
TensorFlow实战 InternalError: cuDNN launch failure : input shape(未解决求交流)
在GitHub上下载了论文《Deep Complex networks》的源码,想复现这个网络。当然过程中发现很多错误,修正之后开始跑代码。模型编译成功,但是当开始model.fit之后,遇到个**InternalError: cuDNN launch failure : **的报错。这里根据node的节点,判断问题大概是出在模型开头的一个BN层上,思前想后找不到问题所在。上Stack O...原创 2020-03-26 11:34:14 · 5530 阅读 · 14 评论 -
TensorFlow实战 ResourceExhaustedErrorGPU显存不足
**ResourceExhaustedError该模型在运行过程中使用GPU资源的时候,GPU资源枯竭了原因batchsize太大,这种只需要将batchsize减小就行了GPU的显存太小,或者剩余的显存太少了办法减小batch size开始batch size设成80,在靠前的节点处停了下来,后来改成64,在靠后的几个节点又内存耗尽停了下来最后改成batch_size=2...原创 2020-03-26 11:13:52 · 630 阅读 · 1 评论 -
TensorFlow add_weight() got multiple values for argument 'name'
我自定义了一继承Layer的卷积层ComplexConv2D(sf, filsize, name='conv1', **convArgs)卷积层里卷积核部分的代码为: self.kernel = self.add_weight( self.kernel_shape, name='kernel', initia...原创 2020-03-21 13:09:14 · 7477 阅读 · 10 评论 -
TensorFlow和keras不同版本中语句替换总结(持续更新)
TensorFlow或者keras中,随着版本的更新,命令语句有时会予以替换,执行之后就会出现类似于AttributeError: module 'keras.backend' has no attribute 'image_dim_ordering的问题。AttributeError: module ‘keras.backend’ has no attribute 'image_dim_ord...原创 2020-03-21 13:01:04 · 2542 阅读 · 0 评论 -
TensorFlow学习 max-pooling和average-pooling之间的异同(待总结)
池化操作时在卷积神经网络中经常采用过的一个基本操作,一般在卷积层后面都会接一个池化操作,但是近些年比较主流的ImageNet上的分类算法模型都是使用的max-pooling,很少使用avera...转载 2020-03-20 12:49:18 · 830 阅读 · 0 评论 -
TensorFlow学习 归纳keras.callbacks(未完)
总结一下目前所学的关于keras.callbacks中的回调函数。keras.callbacks.LearningRateScheduler(schedule)该回调函数是用于动态设置学习率参数:● schedule:函数,该函数以epoch号为参数(从0算起的整数),返回一个新学习率(浮点数)示例:def schedule(epoch): if epoch >= 0 ...翻译 2020-03-19 19:02:12 · 318 阅读 · 0 评论 -
TensorFlow学习 keras-调整学习率
Keras提供两种学习率适应方法,可通过回调函数实现。1. LearningRateSchedulerkeras.callbacks.LearningRateScheduler(sched...转载 2020-03-18 00:12:45 · 1308 阅读 · 0 评论 -
TensorFlow学习 计算卷后后的特征图尺寸
在卷积神经网络设计网型的时候,需要对卷积核和池化层进行参数设置。有三个重要的参数,首先是卷积核的大小,其次是设置步长(padding)的大小,最后是是否采用padding。...转载 2020-03-17 14:13:40 · 317 阅读 · 0 评论 -
tensorflow学习 矩阵乘法和元素乘法
分类:元素相乘:multply()矩阵相乘:d...转载 2020-02-29 18:18:14 · 1727 阅读 · 0 评论 -
tensorflow学习之tf.shape跟tf.get_shape区别
一、tensorflow中的tf.shape和get_shape()都可以用来获取尺寸,那两者的区别是什么呢?先看下面一段代码:<span style="color:#6633ff"...转载 2020-02-29 18:16:50 · 398 阅读 · 0 评论 -
tensorflow之复数操作
...转载 2020-02-29 12:05:44 · 5382 阅读 · 0 评论 -
tensorflow学习之从图像处理看tensor和numpy数据间转换
参考文章:https://blog.csdn.net/xiaosongshine/article/details/84955891问题一:tensor与numpy数据转换在用tensorflow过程中,经常会接触到numpy,在编写过程不会感觉到太大差别,但在输出网络中,输出的结果仍然是tensor,用这些结果去执行numpy数据来执行的操作比如matplotlib时就会出现一些奇奇怪怪的...原创 2020-01-05 17:11:02 · 1096 阅读 · 0 评论 -
tensorflow学习之关于全局均值池化(GAP)
1、全局平均池化平均池化...转载 2019-12-30 14:36:17 · 2760 阅读 · 0 评论