TensorFlow
jiachun199
这个作者很懒,什么都没留下…
展开
-
tensorflow中定义的卷积核不做180旋转?
https://www.cnblogs.com/itmorn/p/11212255.html在tensorflow中觉得这样很纠结,所以干脆定义的卷积核直接就是旋转后的卷积核,所以tensorflow可以直接对应位置相乘,然后相加原创 2020-10-29 22:20:50 · 238 阅读 · 0 评论 -
Keras ImageDataGenerator 图像数据扩充参数说明
https://www.jianshu.com/p/4c7795af350b原创 2020-09-14 17:20:12 · 291 阅读 · 0 评论 -
关于keras构建的神经网络的输出结果解释ETA
ETA:Estimated Time of Arrival。Loss:系统的损失。acc:Accuracy正确率原创 2020-09-14 08:42:06 · 1791 阅读 · 0 评论 -
python之字符串格式化(format)
用法:它通过{}和:来代替传统%方式1、使用位置参数要点:从以下例子可以看出位置参数不受顺序约束,且可以为{},只要format里有相对应的参数值即可,参数索引从0开,传入位置参数列表可用*列表>>> li = ['hoho',18]>>> 'my name is {} ,age {}'.format('hoho',18)'my name is hoho ,age 18'>>> 'my name is {1} ,age {0}'.forma转载 2020-09-07 10:38:10 · 92 阅读 · 0 评论 -
Python路径不能有中文
Python路径不能有中文 ,有中文解析会乱码原创 2020-09-06 15:21:24 · 1888 阅读 · 0 评论 -
Python str() 文件作为参数,返回文件名
Python str() 文件作为参数,返回字符串格式的文件名import osimg_path = 'C:/Users/jiach/Desktop/images'img_list = sorted(os.listdir(img_path))for img in img_list: img_name = str(img) print(img_name)输出界面.vsdx试验图.vsdx...原创 2020-09-05 10:54:39 · 900 阅读 · 0 评论 -
Python os.listdir() 方法
概述os.listdir() 方法用于返回指定的文件夹包含的文件或文件夹的名字的列表。它不包括 . 和 … 即使它在文件夹中。只支持在 Unix, Windows 下使用。语法listdir()方法语法格式如下:os.listdir(path)参数path -- 需要列出的目录路径返回值返回指定路径下的文件和文件夹列表。实例以下实例演示了 listdir() 方法的使用:#!/usr/bin/python# -*- coding: UTF-8 -*-import os,转载 2020-09-05 10:35:58 · 238 阅读 · 0 评论 -
np.flipud()将矩阵倒序
np.flipud()函数可以将矩阵里面的值倒序.注意:只是在第一个维度上进行倒序哦.>>> arr = np.arange(6)>>> arrarray([0, 1, 2, 3, 4, 5])>>> np.flipud(arr)array([5, 4, 3, 2, 1, 0])如果是多维矩阵也只是在第一个维度上进行倒序.>>> A = np.diag([1.0, 2, 3])>>> Aarray转载 2020-09-05 09:44:41 · 2524 阅读 · 0 评论 -
超参数和参数(深度学习)
1. 参数(parameters)/模型参数由模型通过学习得到的变量,比如权重和偏置2. 超参数(hyperparameters)/算法参数根据经验进行设定,影响到权重和偏置的大小,比如迭代次数、隐藏层的层数、每层神经元的个数、学习速率等...转载 2020-09-04 15:55:43 · 726 阅读 · 0 评论 -
keras中loss与val_loss的关系
loss是训练集的损失值,val_loss是测试集(验证集)的损失值以下是loss与val_loss的变化反映出训练走向的规律总结:train loss 不断下降,test loss不断下降,说明网络仍在学习;(最好的)train loss 不断下降,test loss趋于不变,说明网络过拟合;(max pool或者正则化)train loss 趋于不变,test loss不断下降,说明数据集100%有问题;(检查dataset)train loss 趋于不变,test loss趋于不变,说明学习转载 2020-09-04 15:01:04 · 1690 阅读 · 0 评论 -
深度学习中的激活函数及优化
激活函数:神经网络神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数 Activation Function。为什么要使用激活函数?神经网络中激活函数的主要作用是提供网络的非线性建模能力,如不特别说明,激活函数一般而言是非线性函数。假设一个示例神经网络中仅包含线性卷积和全连接运算,那么该网络仅能够表达线性映射,即便增加网络的深度也依旧还是线性映射,难以有效建模实际环境中非线性分布的数据。加入(非线性)激活函数之后,深度神经网络才具备了分层的非线性映射学习能力。转载 2020-08-19 20:53:51 · 886 阅读 · 0 评论 -
卷积神经网络的结构及公式
神经网络(neural networks)的基本组成包括输入层、隐藏层、输出层。而卷积神经网络的特点在于隐藏层分为卷积层和池化层(pooling layer,又叫下采样层)。• **卷积层:**通过在原始图像上平移来提取特征,每一个特征就是一个特征映射• 池化层:通过特征后稀疏参数来减少学习的参数,降低网络的复杂度,(最大池化和平均池化)h1=99.5,取99。因为步长为2,零填充1。最后0.5代表1个步长即零填充。所有0.5可以不要、...原创 2020-08-19 17:51:36 · 1013 阅读 · 0 评论 -
sess.run()方法
参数详解run(fetches, feed_dict=None, options=None, run_metadata=None)fetches可以是单个图元素(single graph element),也可以是任意嵌套的列表list,元组tuple,名称元组namedtuple,字典dict或包含图元素的OrderedDict。feed_dict可选参数 feed_dict允许调用者替换图中张量的值(the value of tensors in the graph)。options可选转载 2020-08-18 19:19:50 · 3462 阅读 · 0 评论