![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow
文章平均质量分 52
petSym
这个作者很懒,什么都没留下…
展开
-
纪录安装tensorflow的又一次的坑
anaconda环境的激活服务器上激活与退出conda activate py27# 激活conda deactivate本地win10系统下anaconda中激活与退出activate py27deactivate原创 2019-12-03 19:22:23 · 143 阅读 · 0 评论 -
毕设tips——conda
pytorch1.0和tensotflow支持的numpy不一样,建两个虚拟环境,所以除了pytorch0.4.0,在已经有tensorboardX的情况下,我新建了一个tf环境,用来安装tensorflow。事实证明这样单独在tf环境下是可以运行tensorboardX的!否则tf装在pytorch环境下很容易就污染了,即numpy可能被降版本,然后整个人都不好了。参考https://zh...原创 2019-05-11 22:51:52 · 277 阅读 · 0 评论 -
毕设日志——TensorFlow安装的numpy覆盖?掉了pytorch的numpy
根据https://zhuanlan.zhihu.com/p/54947519 的说法,可以把 tensorboard 和 tensorflow 放在另外一个虚拟环境里.这样就不会因为 tensorflow 的问题导致 numpy 之类的包被降级了。今天为了用tensorboardX,先安装了tensorflow-gpu然后检测numpy版本变成了 numpy.__version__'1....原创 2019-05-11 17:23:07 · 516 阅读 · 0 评论 -
毕设日志2019.4.2——tf版本的faster rcnn的代码运行
今天参考https://blog.csdn.net/sinat_33486980/article/details/81045315 一文进行tf版本的faster rcnn的demo运行未果,原因是到某一步的时候win10下的cmder没有找到可以用make来编译Cython的方法,所以放弃之。一个叫endernewton的github代码已经下载好了(https://github.com/end...原创 2019-04-02 22:25:04 · 712 阅读 · 1 评论 -
TensorFlow神经网络(八)卷积神经网络之Lenet-5
一、Lenet神经网络基本结构注意,最后将第二池化层后的输出拉直送入全连接层。Lenet神经网络特点:① 卷积、池化、非线性激活函数相互交替;② 层与层之间稀疏连接,减少计算复杂度。对Lenet微调,使其适应Mnist数据集:二、Lenet神经网络在Mnist数据集上的实现1.前向传播mnist_lenet5_forward.py2.反向传播mnist_lenet5...原创 2018-12-06 17:29:58 · 476 阅读 · 1 评论 -
TensorFlow神经网络(七)卷积神经网络基础
一、全连接神经网络(FC)回顾之前做过的手写数字识别mnist使用的是全连接神经网络。全连接神经网络:每个神经元与前后相邻层的每一个神经元都有连接关系;输入是特征,输出是最终预测结果。实际相比于手写数字图片,对于高分辨率的三通道彩色图像,待优化的参数过多,容易导致模型过拟合。为了避免过拟合,往往不会将原始图片直接喂入全连接网络。实际应用中常常会对原始图像进行特征提取,提取到的特征再喂给全...原创 2018-12-05 16:13:53 · 393 阅读 · 0 评论 -
TensorFlow神经网络(五)输入手写数字图片进行识别
一、断点续训为防止突然断电、参数白跑的情况发生,在backward中加入类似于之前test中加载ckpt的操作,给所有w和b赋保存在ckpt中的值:(1) 如果存储断点文件的目录文件夹中,包含有效断点状态文件,则返回该文件:参数说明checkpoint_dir: 表示存储断点文件的目录latest_filename: 断点文件的可选名称,默认为checkpointckpt = tf...原创 2018-11-14 10:49:40 · 1214 阅读 · 0 评论 -
TensorFlow神经网络:模块化的神经网络八股
1、前向传播:搭建从输入到输出的网络结构forward.py:# 定义前向传播过程def forward(x, regularizer): w = b = y = return y# 给w赋初值,并把w的正则化损失加到总损失中def get_weight(shape, regularizer): w = tf.Variable() tf.add_to_colle...原创 2018-11-03 19:51:06 · 442 阅读 · 0 评论 -
TensorFlow神经网络(一)前向传播
# for python learning notebook.py #正态分布w = tf.Variable(tf.random_normal([2.3], stddev = 2, mean = 0, seed = 1))#去掉过大偏离点的正态分布w = tf.Variable(tf.truncated_normal([2.3], stddev = 2, mean = 0, seed ...原创 2018-10-31 11:10:13 · 733 阅读 · 0 评论 -
TensorFlow神经网络(二)反向传播
############### warm up! ############### 均方误差MSE的计算函数:loss = tf.reduce_mean(tf.square(y_ - y))# 反向传播的训练方法/优化器:## 梯度下降 train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss...原创 2018-11-01 09:41:45 · 492 阅读 · 0 评论 -
TensorFlow神经网络(三)神经网络优化
激活函数-原创 2018-11-02 12:49:54 · 635 阅读 · 0 评论 -
TensorFlow神经网络(四)手写数字识别
【注】内容来自mooc人工智能实践第五讲一、MNIST数据集一些用到的基础函数语法############ warm up ! ############# 导入imput_data模块from tensorflow.examples.tutorials.mnist import input_data# 加载数据集,以读热码的形式存取mnist = input_data.read_...原创 2018-11-08 20:24:20 · 455 阅读 · 0 评论 -
TensorFlow神经网络(六)制作数据集,实现特定应用
【注】内容来自mooc人工智能实践第六讲一、数据集生成读取文件mnist_generateds.py1.基本函数和用法tfrecords文件:二进制文件,可以先将图片和标签制作成该格式的文件。使用tfrecords文件进行数据读取,可以提高内存的利用率。tf.train.Example:用来存储训练数据。训练数据的特征用键值对的形式表示;值可以是字符串(Byteslist)、实数...原创 2018-11-15 22:35:49 · 1142 阅读 · 0 评论 -
tf.truncated_normal与tf.random_normal的区别
原文地址:https://blog.csdn.net/u013713117/article/details/65446361/一、tf.truncated_normaltf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)从截断的正态分布中输出随机值。生成的值服从具...原创 2018-11-09 09:25:09 · 189 阅读 · 0 评论