![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
TensorFlow2.0 学习笔记
文章平均质量分 62
落雪wink
这个人除了菜 什么也没留下
展开
-
TensorFlow2.0 学习笔记 2.5:维度变换
TensorFlow2-维度变换目录一、TensorFlow2-维度变换二、Outline(大纲)三、图片视图四、First Reshape(重塑视图)五、Second Reshape(恢复视图)六、Transpose(转置)七、Expand_dims(增加维度)八、Squeeze(挤压维度)TensorFlow2-维度变换Outline(大纲)shape, ndimreshapeexpand_dims/squeezetranspose图片视图[b, 28,原创 2021-01-25 21:22:28 · 446 阅读 · 15 评论 -
TensorFlow2.0学习笔记 2.4:损失函数
损失函数:损失函数是前向传播计算出的结果y与已知标准答案y_的差距神经网络的优化目标就是找到某套参数,使得计算出来的结果y和已知标准答案y_无限接近,也就是他们的差距loss值最小主流loss有三种计算方法:均分误差(mse)自定义交叉熵(ce)一、均分误差是前向传播计算的结果y与已知标准答案y_之差的平方。再求平均例子一:我把代码分开来看import tensorflow as tfimport numpy as npSEED = 23455rdm = np.random.原创 2021-01-22 20:37:30 · 424 阅读 · 0 评论 -
TensorFlow2.0学习笔记 2.3:激活函数
激活函数这一张图是我们上一讲实现鸢尾花分类时,用到的神经元模型 和它对应的前向传播公式从公式可以看出,即使有多层神经元首尾相连,构成深层神经网络,依旧是线性组合,模型的表达力不够这张图是1943年提出的MP模型比上面的简化模型多了一个非线性函数,这个非线性函数,叫做激活函数。神经网络可以随层数的增加提升表达能力常用的激活函数Sigmoid()函数sigmoid函数也叫Logistic函数,用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。在特原创 2021-01-22 11:54:34 · 343 阅读 · 1 评论 -
TensorFlow2.0学习笔记 2.2:复杂度学习率
复杂度学习率随着迭代轮数的增加,学习率 lr 在指数衰减原创 2021-01-22 10:07:22 · 304 阅读 · 1 评论 -
TensorFlow2.0学习笔记 2.1:神经网络优化过程——函数知识
tf.where()np.random.RandomState.rand()np.vstack()原创 2021-01-22 09:27:37 · 239 阅读 · 5 评论 -
TensorFlow2.0学习笔记1.5:神经网络实现鸢尾花分类
神经网络实现鸢尾花分类我们用神经网络实现鸢尾花的分类需要三部准备数据包括数据集读入、数据集乱序、生成train和test(也就是永不相见的训练集和测试集)、把训练集和测试集中的数据配成输入特征和标签对搭建网络定义神经网络中所有可训练参数优化可训练参数利用嵌套循环迭代、with结构更新参数(在with结构中,求得损失函数loss对每个可训练参数的偏导数,更新这些可训练参数),显示当前close测试效果为查看效果,程序中可加入每遍历一次数据集,显示当前准确率,还可以画出准确率原创 2021-01-22 08:55:02 · 690 阅读 · 1 评论 -
TensorFlow2.0学习笔记1.4:鸢尾花数据集读入
鸢尾花的分类是如何使用神经网络的方法实现首先要有数据Iris提供了150组数据,每组包括花萼长、花萼宽、花瓣长、花瓣宽4个输入特征。同时给出了,这一组输入特征对应的鸢尾花类别,包括0狗尾草鸢尾、1杂草鸢尾、2弗吉尼亚鸢尾三类安装scikit-learn和pandas两个包pip install scikit-learnpip install pandas代码如下:from sklearn import datasetsfrom pandas import DataFrameimport原创 2021-01-21 14:17:13 · 404 阅读 · 2 评论 -
TensorFlow2.0学习笔记1.3:函数基础讲解三
我们可以在with结构中使用tf.GradientTape()函数 实现某个函数对指定参数的求导运算配合刚才讲过的variable函数,可以实现损失函数loss对参数w的求导运算import tensorflow as tfwith tf.GradientTape() as tape: w = tf.Variable(tf.constant(3.0)) loss = tf.pow(w, 2)grad = tape.gradient(loss, w)print(grad)在这个原创 2021-01-21 13:31:02 · 327 阅读 · 2 评论 -
TensorFlow2.0学习笔记1.2:函数基础讲解二
tf.cast()用于实现强制类型转换用 tf.reduce_min() 找到张量中的最小值用 tf.reduce_max() 找到张量中的最大值我们构建一个张量x1,把它变成32位整形,它的最小值是1,它的最大值是3axis可以指定操作的方向,对于一个二维张量,如果axis=0,表示对第一个维度进行操作,axis=1,表示对第二个维度进行操作 axis=0,表示纵向操作,沿经度方向 axis=1,表示横向操作,沿纬度方向比如 我们可以通过调整axis=0或1来控制求平均值的方向tf.redu原创 2021-01-21 11:09:32 · 326 阅读 · 0 评论 -
TensorFlow2.0学习笔记1.1:张量(Tensor)生成和函数基础讲解一
张量(Tensor)生成0阶张量叫做标量,表示的是一个单独的数,比如s=1231阶张量叫做向量,表示的是是一个一维数组,比如列表v=[1, 2, 3]2阶张量叫做矩阵,表示的是一个二维数组,它可以有i行j列个元素,每个元素用它的行号和列号共同索引到。比如 矩阵中,元素2的索引就是矩阵m的第0行第1列判断张量是几阶的,就看有几个’['方括号。0个是0阶,1个是1阶,2个是2阶,n个是n阶所以张量可以表示1阶到n阶的数组Tensorflow的数据类型有32位整形、32位浮点、64位浮点、布尔型、字原创 2021-01-21 09:58:57 · 892 阅读 · 1 评论 -
Attempting to fetch value instead of handling error Internal: failed to get device attribute 13 for
Attempting to fetch value instead of handling error Internal: failed to get device attribute 13 for device 0: CUDA_ERROR_UNKNOWN: unknown error问题来源:Python安装tensorflow执行时出现问题。问题产生的原因:驱动与cuda不匹配,更新nvidia驱动即可。解决办法:进入cuda-gpu匹配页面: http://developer.nvidia.co原创 2021-01-21 08:58:18 · 4442 阅读 · 6 评论 -
windows10安装cuda10.1以及cudnn遇到的各种问题
学tensorflow要用到英伟达的cuda包,然后安两个小时没整出来,全是问题,遇到困难果断睡大觉,连睡五个小时 真爽!!!先说我遇到的问题:我英伟达CUDA的版本是9.1 而要用的是10.1,我的太老了,需要升级windows10安装cuda10.2win10安装cuda10.1+cudnn760CUDA10.1下载完后,没找到NVINIA GPU Computing Toolkit文件夹,搞得我连装三遍,才发现问题Windows10 -64 安装tensorflow遇到的:cuda安原创 2021-01-20 19:51:16 · 3086 阅读 · 5 评论 -
TensorFlow2.0环境的配置
TensorFlow2.0环境的配置自学视频:【北京大学】Tensorflow2.0一、安装Anaconda3官网下载即可默认方式安装安装完后 将anaconda3加入环境变量2、TensorFlow的安装2.1 创建TF2.1环境conda create -n TF2.1 python=3.7 选择y表示同意安装相关软件包2.2 windows10安装cuda10.1以及cudnn点击链接 上次写过。电脑上要是没有英伟达显卡的跳过2.2 直接进入2.32.3 安装tens原创 2021-01-20 21:01:33 · 756 阅读 · 2 评论