![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习框架
Caffe、Tensorflow
洛北辰南
这个作者很懒,什么都没留下…
展开
-
softmax_cross_entropy、binary_cross_entropy、sigmoid_cross_entropy
转自:损失函数softmax_cross_entropy、binary_cross_entropy、sigmoid_cross_entropy之间的区别与联系cross_entropy-----交叉熵是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。在介绍softmax_cross_entropy,binary_cross_entropy、sigmoid_cross_entropy...转载 2019-06-29 10:56:39 · 1397 阅读 · 0 评论 -
tensorflow中的dataset
先记录一下读tfrecord的方式def parser(record, shape=[224, 224, 1]): features = tf.parse_single_example(record, features={ 'label': tf.FixedLenFeature([], tf.int64), 'img': tf.FixedLenFeatur...原创 2019-06-28 10:18:50 · 844 阅读 · 0 评论 -
python 单通道转3通道,tensorflow灰度图转RGB图
import numpy as npwith tf.Session(): image, label = sess.run(next_batch) # batch_size=1 print(image.shape) # [224, 224, 1] image = np.concatenate((image, image, image), axis=-1) print(image.shap...原创 2019-06-27 14:40:34 · 13385 阅读 · 8 评论 -
支持向量机SVM代码示例
Tensorflow代码来源:https://www.cnblogs.com/vipyoumay/p/7560061.html本人新添加了很多注释,方便理解代码我一直想将这个代码用于多维特征的二分类,看了挺长时间。添加多维特征,对于SVM结构定义的影响就是,x_data、A的维度要对应到特征的维度。对于求解斜率,多维的A生成多维元素,在下还未彻底理解SMO算法的多维求解方案,所以没有深究...原创 2019-06-13 21:44:40 · 835 阅读 · 0 评论 -
学习《TensorFlow实战Google深度学习框架》(十一)迁移学习
6.5 卷积神经网络迁移学习6.5.1 迁移学习介绍下标给出了从2012年到2015年ILSVRC(Large Scale Visual Recognition Challenge)第一名模型的层数以及前五个答案的错误率随着模型层数以及复杂度的增加,模型在ImageNet上的错误率也随之降低。然而,训练复杂的卷积神经网络需要非常多的标注数据。ImageNet图像分类数据集中有120万标注图...原创 2019-03-29 14:15:58 · 921 阅读 · 7 评论 -
学习《TensorFlow实战Google深度学习框架》(十)Inception-v3模型
6.4.2 Inception-v3模型原创 2019-03-26 11:29:31 · 1569 阅读 · 0 评论 -
TensorFlow的CNN中padding属性的含义
不知道是不是我以前理解就有问题,我一直以为所谓的全0填充就只是在外侧多加一行和一列0直到今天,我看到这段话# 声明第一层卷积层的变量并实现前向传播过程。这个过程通过使用不同命名空间来隔离不# 同层的变量,这可以让每一层中的变量命名只需要考虑在当前层的作用,而不需要担心重# 名的问题。和标准LeNet-5模型不大一样,这里定义的卷积层输入为28×28×1的原始MNIST# 图片像素。因为卷...原创 2019-03-23 16:47:41 · 1034 阅读 · 0 评论 -
学习《TensorFlow实战Google深度学习框架》(九)LeNet-5模型
文章目录6.4 经典卷积网络模型6.4.4 LeNet-5模型LeNet-5模型的架构6.4 经典卷积网络模型6.4.4 LeNet-5模型LeNet-5模型是Yann LeCun教授于1998年在论文Gradient-based learning applied to document recognition中提出的,它是第一个成功应用于数字识别问题的卷积神经网络。在MNIST数据集上,L...原创 2019-03-23 20:35:38 · 523 阅读 · 0 评论 -
学习《TensorFlow实战Google深度学习框架》(八) 卷积神经网络简介
文章目录第六章 图像识别与卷积神经网络第六章 图像识别与卷积神经网络原创 2019-03-20 21:03:48 · 671 阅读 · 0 评论 -
学习《TensorFlow实战Google深度学习框架》(七)TensorFlow最佳实践样例程序
文章目录5.5 TensorFlow最佳实践样例程序mnist_inference.pymnist_train.pymnist_eval.py输出结果5.5 TensorFlow最佳实践样例程序5.2.1节中的代码,可扩展性不好。5.3节中,计算前向传播的函数需要将所有变量都传入才能计算,当神经网络的结构变得更加复杂、参数更多时,程序可读性会变得非常差。而且会导致大量的荣誉代码,降低编程的小量...原创 2019-03-20 10:40:31 · 195 阅读 · 0 评论 -
学习《TensorFlow实战Google深度学习框架》(六)模型持久化
文章目录5.4 TensorFlow模型持久化5.4.1持久化代码实现5.4 TensorFlow模型持久化5.4.1持久化代码实现原创 2019-03-15 17:30:19 · 183 阅读 · 0 评论 -
学习《TensorFlow实战Google深度学习框架》(五)变量管理
文章目录5.2 神经网络模型训练及不同模型结果对比5.2.2 使用验证数据集判断模型效果5.2 神经网络模型训练及不同模型结果对比5.2.2 使用验证数据集判断模型效果...原创 2019-03-15 11:20:12 · 154 阅读 · 0 评论 -
学习《TensorFlow实战Google深度学习框架》(四)MNIST问题、模型效果对比
文章目录前言第五章 MNIST数字识别问题5.1 MNIST数据处理前言之前有尝试过不用框架,根据《python神经网络编程》中的NN类,对MNIST数据集进行识别,然后尝试从每次只训练一个数据变成每次训练一个batch,但是种种困难阻止了我,最后也没能实现,这里我要好好学一下。第五章 MNIST数字识别问题5.1 MNIST数据处理...原创 2019-03-14 15:28:10 · 434 阅读 · 0 评论 -
学习《TensorFlow实战Google深度学习框架》(三)神经网络优化方法
文章目录4.3 神经网络优化算法4.4 神经网络进一步优化4.4.1 学习率的设置4.4.2 过拟合问题4.3 神经网络优化算法反向传播算法(BP,back propagation)和梯度下降算法(gradient decent)调整神经网络中参数的取值。梯度下降算法主要用于优化单个参数的取值,而反向传播算法给出了一个高效的方式在所有参数上使用梯度下降算法从而使神经网络模型在训练数据上的损失...原创 2019-03-13 11:18:27 · 354 阅读 · 0 评论 -
学习《TensorFlow实战Google深度学习框架》(二)深层神经网络及损失函数
文章目录第四章 深层神经网络4.1 深度学习与深层神经网络4.1.1 线性模型的局限性4.1.2 激活函数实现去线性化4.1.3 多层网络解决异或运算4.2 损失函数定义4.2.1 经典损失函数第四章 深层神经网络4.1 深度学习与深层神经网络维基百科对深度学习的精确定义为“一类通过多层非线性变换对高复杂性数据建模算法的合集”。因为深层神经网络是实现“多层非线性变换”最常用的一种方法,所以在...原创 2019-03-08 12:22:31 · 519 阅读 · 0 评论 -
学习《TensorFlow实战Google深度学习框架》(一)TensorFlow 基础入门
文章目录前言第3章 TensorFlow入门3.1 TensorFlow计算模型——计算图3.1.1 计算图的概念3.1.2 计算图的使用3.2 TensorFlow数据模型——张量3.2.1 张量的概念3.2.2 张量的使用3.3 TensorFlow运行模型——会话3.4 TensorFlow实现神经网络3.4.3 神经网络参数与TensorFlow变量前言原本我是想遇到难点,写一个简短的...原创 2019-03-05 17:46:14 · 299 阅读 · 0 评论 -
关于tensorflow中张量维度—Shape参数的理解
初学tensorflow,大佬勿喷在编写神经网络手写数字识别时,打印权重矩阵的维度print(wih.shape)# 得到 (100,784)这里我的理解是,100行,784列的矩阵,感觉没什么问题。然后学习tensorflow张量的时候,编写了如下代码a = tf.constant([1.0,2.0],name="a")b = tf.constant([2.0,3.0],name...原创 2018-12-07 15:14:45 · 15344 阅读 · 10 评论 -
Ubuntu16.04编译Caffe时,fatal error:hdf5.h:没有那个文件或目录
借鉴:caffe 编译中出现的错误——fatal error: hdf5.h: 没有那个文件或目录由于caffe官方文件有更新,位置改了,所以改写原文记录下来。Step 1在Makefile.config文件搜索PYTHON_INCLUDE,找到如下代码段INCLUDE_DIRS := $(PYTHON_INCLUDE) /usr/local/include在后面加上 /usr/inc...转载 2019-04-23 11:13:02 · 1246 阅读 · 1 评论 -
CMake Error: Could not create named generator "Visual Studio 15 2017 Win64"
安装完OPENVINO,运行demo时候,一直提示CMake Error: Could not create named generator "Visual Studio 15 2017 Win64"百思不得其解,最后在stackoverflow上找到一篇,情况类似的解决方案。在bat文件中,原来写的是cmake "-G Visual Studio %VS_VERSION% Win64...原创 2019-04-04 16:08:07 · 11186 阅读 · 6 评论 -
Caffe试运行mnist数据集
在mnist数据集中进行测试安装好了caffe后,就开始在mnist数据集中测试一下吧。进入/caffe/examples/mnist路径分别修改lenet_solver.prototxt和lenet_train_test.prototxt文件中关于路径的部分lenet_solver.prototxt# The train/test net protocol buffer defini...原创 2019-04-03 17:05:24 · 155 阅读 · 0 评论 -
Windows10安装caffe的方法
github有如下说明Windows SetupRequirementsVisual Studio 2013 or 2015Technically only the VS C/C++ compiler is required (cl.exe)CMake 3.4 or higher (Visual Studio and Ninja generators are supported...原创 2019-04-03 15:51:40 · 6357 阅读 · 6 评论