tensorflow
哎呦不错的温jay
关注研究数字人、元宇宙、计算机视觉、图形学、AIGC、语言大模型。
展开
-
tensorflow——分类问题如何计算准确率以及top5准确率
我们在使用深度学习解决一个分类问题的时候,需要计算准确率来评价算法,有的时候会使用top3、top5准确率,那么在tensorflow中如何实现呢?一般分类网络都会使用交叉熵损失函数,在使用交叉熵之前,对于n分类问题,网络会输出n维的向量。比如说你要分猫和狗,就是一个二分类问题,网络输出一个2维的向量,向量的值越大,则对应的类别的可能性就越高。这个向量我们称之为logits。因此计算准确率的代码为: accuracy = tf.reduce_mean(tf.cast(tf.equal原创 2020-09-07 16:53:23 · 11853 阅读 · 0 评论 -
tensorflow——tf.reduce_mean()函数详解
tf.reduce_mean 函数用于计算张量tensor沿着指定的数轴(tensor的某一维度)上的的平均值,主要用作降维或者计算tensor(图像)的平均值。用法:tf.reduce_mean(input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None)第一个参数input原创 2020-09-07 16:30:39 · 831 阅读 · 0 评论 -
tensorflow——tf.cast()详解
tf.cast()函数的作用是执行 tensorflow 中张量数据类型转换,比如把int8转换为float32。用法:a=tf.cast(x, dtype, name=None)第一个参数 x: 待转换的数据(张量) 第二个参数 dtype: 目标数据类型 第三个参数 name: 可选参数,定义操作的名称举个例子:int32转换为float32:import tensorflow as tf t1 = tf.Variable([1,2,3,4,5])t2 = tf...原创 2020-09-07 16:26:34 · 8946 阅读 · 0 评论 -
tensorflow—— tf.equal()详解
用法:a=tf.equal(x, y, name=None)顾名思义,就是判断,x, y 是不是相等,它的判断方法不是整体判断,而是逐个元素进行判断,如果相等就是True,不相等,就是False。由于是逐个元素判断,所以x,y 的维度要一致。举个例子:import tensorflow as tfa = [[1,2,3],[4,5,6]]b = [[1,0,3],[1,5,1]]with tf.Session() as sess: print(sess.run(tf原创 2020-09-07 16:21:00 · 1154 阅读 · 0 评论 -
tensorflow——tf.argmax()和axis详解
tf.argmax(input,axis)根据axis取值的不同返回每行或者每列最大值的索引。举个例子:import tensorflow as tfimport numpy as np A = [[1,3,4,5,6]]B = [[1,3,4], [2,4,1]] with tf.Session() as sess: print(sess.run(tf.argmax(A, 1))) print(sess.run(tf.argmax(B, 1)))输出:[4]原创 2020-09-07 16:17:11 · 428 阅读 · 0 评论 -
Tensorflow--MNIST手写数据集卷积层分类
接上一篇文章,在图像领域用的最多的就是CNN,卷积神经网络。用CNN来做分类当然也是必不可少的。这里用到的数据集是MNIST,封装在tensorflow中。使用卷积神经网络做一个多分类问题。# 用tensorflow 导入数据from tensorflow.examples.tutorials.mnist import input_datamnist = input_data.rea...原创 2018-09-27 22:08:29 · 475 阅读 · 0 评论 -
Tensorflow--MNIST手写数据集全连接层分类
手写数据集分类一般都被用来当做tensorflow入门的教程。当然啦,神经网络一般分为全连接层(FC),卷积层(CNN)和序列模型(RNN),这里先用全连接层做一个分类。这里用到的数据集是MNIST,封装在tensorflow中。使用全连接层中做一个多分类问题。我就把之前写的代码贴上来吧。# 用tensorflow 导入数据from tensorflow.examples.tuto...原创 2018-09-27 22:03:46 · 1727 阅读 · 0 评论 -
解决ValueError: Trying to share variable rnn/multi_rnn_cell/cell_0/basic_lstm_cell/kernel
在使用tensorflow lstm的时候出现报错:ValueError: Trying to share variable rnn/multi_rnn_cell/cell_0/basic_lstm_cell/kernel, but specified shape (512, 1024) and found shape (556, 1024).完整报错如下:Traceback (most rece...原创 2018-03-04 14:56:48 · 8884 阅读 · 0 评论 -
tensorflow--tf.nn.l2_loss()函数示例
我在网上找了一圈,发现并没有人很详细地介绍过tf.nn.l2_loss函数。我今天来给大家解释并跑一下这个函数。tf.nn.l2_loss(t, name=None)解释:这个函数的作用是利用 L2 范数来计算张量的误差值,但是没有开方并且只取 L2 范数的值的一半,具体如下:output = sum(t ** 2) / 2代码:import tensorflow as tfa=tf.cons...原创 2018-02-14 22:30:56 · 7831 阅读 · 1 评论 -
深度学习、tensorflow--神经风格迁移(neural style transfer)原理以及实现代码
最近在计算机视觉界流行一个算法,神经风格迁移(neural style transfer),出自论文《 A Neural Algorithm of Artistic Style》,今天来让我们看看这究竟是怎么一回事。我们有一个内容图片(拿学校大门献丑了):一个风格图片:最终生成图片:是不是还是相当有意思的,我先介绍原理,一会给代码。首先,在介绍原理之前,确保你明白卷积神经网络(CNN)原理,CNN...原创 2018-02-14 21:33:35 · 17849 阅读 · 27 评论 -
tensorflow--交叉熵cross_entropy的两种实现方式
交叉熵多用于分类问题,在分类问题中的效果很好。下面介绍tensorflow中两种交叉熵的实现方式:首先介绍几个概念 : logits: 未归一化的概率, 一般也就是 softmax层的输入softmax:可以理解为一个归一化函数,在计算交叉熵之前都要用此函数进行激活cross_entropy:交叉熵交叉熵两种方式来实现:1、tf.nn.softmax_cross_entro原创 2017-12-29 17:12:19 · 3932 阅读 · 1 评论 -
tensorflow--tf.one_hot()函数示例
tensorflow中tf.one_hot()函数的作用是将一个值化为一个概率分布的向量,一般用于分类问题。具体用法以及作用见以下代码:import numpy as npimport tensorflow as tfSIZE=6CLASS=8label1=tf.constant([0,1,2,3,4,5,6,7])sess1=tf.Session()print('label原创 2017-09-21 19:11:18 · 28321 阅读 · 0 评论 -
win10安装Tensorflow cpu版dll not found报错解决方案
前一阵子在win10上安装tensorflow,每次装好一import都会报错。按照网上教程调了很多都没用,最后一怒之下弃用windows换成ubunto装。今天又在win10上重新安装tensorflow,环境为python3.5.3,pip版本为9.0.1,首先输入命令:pip install --upgrade --ignore-installed tensorflow安装完成后原创 2017-08-23 16:48:18 · 5877 阅读 · 0 评论