![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络
炼丹师666
要学神仙,驾鹤飞天,点石成金,妙不可言!
展开
-
TensorFlow深度学习并发加速训练
TensorFlow深度学习并发训练TensorFlow 2.0 分布式训练单机多卡训练: MirroredStrategytf.distribute.MirroredStrategy 是一种简洁且高性能的,数据并行的同步式分布式策略,主要支持多个 GPU 在同一台主机上训练。使用这种策略时,我们只需实例化一个 MirroredStrategy 策略:strategy = tf.distr...原创 2020-02-20 19:29:17 · 975 阅读 · 1 评论 -
keras_ LSTM 层和 GRU 层
6.2.2 理解 LSTM 层和 GRU 层https://blog.csdn.net/qq_30614345/article/details/98714874原创 2020-02-17 16:02:51 · 2179 阅读 · 0 评论 -
keras_循环神经网络
keras_循环神经网络6.2.1 Keras 中的循环层https://blog.csdn.net/qq_30614345/article/details/98714874代码清单 6-22 准备 IMDB 数据代码清单 6-23 用 Embedding 层和 SimpleRNN 层来训练模型代码清单 6-24 绘制结果# 与 Keras 中的所有循环层一样, SimpleRNN ...原创 2020-02-15 21:31:57 · 513 阅读 · 1 评论 -
keras-文本序列_文本向量化_分词(二)(使用预训练的词嵌入)
Keras-文本序列_文本向量化(二)(使用预训练的词嵌入)参考:https://blog.csdn.net/qq_30614345/article/details/98714874在这里插入代码片原创 2020-02-05 16:37:09 · 1013 阅读 · 0 评论 -
keras-文本序列_文本向量化(二)(利用 Embedding 层学习词嵌入)
Keras-文本序列_文本向量化(二)(使用词嵌入&词向量)参考:https://blog.csdn.net/qq_30614345/article/details/98714874原创 2020-02-05 12:29:34 · 722 阅读 · 0 评论 -
keras_猫狗分类案例(三)_卷机神经网络的可视化(可视化类激活的热力图)
卷机神经网络的可视化(可视化类激活的热力图)参考:https://www.cnblogs.com/zhhfan/p/9978099.html可视化类激活的热力图我还要介绍另一种可视化方法,它有助于了解一张图像的哪一部分让卷积神经网络做出了最终的分类决策。这有助于对卷积神经网络的决策过程进行调试,特别是出现分类错误的情况下。这种方法还可以定位图像中的特定目标。这种通用的技术叫作类激活图(C...原创 2020-02-04 17:15:08 · 1363 阅读 · 0 评论 -
keras_猫狗分类案例(三)_卷机神经网络的可视化(可视化卷积神经网络的过滤器)
可视化卷积神经网络的过滤器参考:https://cloud.tencent.com/developer/article/1502652 想要观察卷积神经网络学到的过滤器,另一种简单的方法是显示每个过滤器所响应的视觉模式。这可以通过在**输入空间中进行梯度上升**来实现:从空白输入图像开始,将梯度下降应用于卷积神经网络输入图像的值,其目的是让某个过滤器的**响应最大化**。得到的输入图像是选定...原创 2020-02-03 21:14:43 · 575 阅读 · 0 评论 -
keras_猫狗分类案例(三)_卷机神经网络的可视化(可视化卷积神经网络的中间输出)
keras_猫狗分类案例(三)_卷积神经网络的可视化参考:https://blog.csdn.net/Einstellung/article/details/82832872卷积神经网络的可视化参考:1、可视化卷积神经网络的中间输出(中间激活):有助于理解卷积神经网络连续的层如何对输入进行变换,也有助于初步了解卷积神经网络每个过滤器的含义。代码清单 5-25 预处理单张图像代码清单...原创 2020-02-03 16:42:25 · 1515 阅读 · 0 评论 -
神经网络激活函数和损失函数的选择
神经网络激活函数和损失函数的选择python深度学习.pdf参考:https://blog.csdn.net/lxiao428/article/details/88651767原创 2020-02-02 22:06:00 · 659 阅读 · 0 评论 -
keras_卷积神经网络_猫狗分类案例(二)
keras_卷积神经网络_猫狗分类案例(二)参考:https://blog.csdn.net/xiewenrui1996/article/details/104032476/**5.3 使用预训练的卷积神经网络5.3.1 特征提取代码清单 5-16 将 VGG16 卷积基实例化不使用数据增强的快速特征提取代码清单 5-17 使用预训练的卷积基提取特征代码清单 5-18 定义并训练密...原创 2020-02-02 22:01:42 · 778 阅读 · 0 评论 -
keras_卷积神经网络_猫狗分类案例(一)
参考:https://blog.csdn.net/fioletfly/article/details/101345549代码清单 5-2 在卷积神经网络上添加分类器代码清单 5-3 在 MNIST 图像上训练卷积神经网络代码清单 5-4 将图像复制到训练、验证和测试的目录代码清单 5-5 将猫狗分类的小型卷积神经网络实例化代码清单 5-6 配置模型用于训练5.2.4 数据预处理代码...原创 2020-02-02 17:47:39 · 1697 阅读 · 0 评论 -
keras_实例化一个小型的卷积神经网络
keras_深度学习用于计算机视觉参考:https://blog.csdn.net/xiewenrui1996/article/details/104009618本章将介绍卷积神经网络,也叫 convnet,它是计算机视觉应用几乎都在使用的一种深度学习模型。你将学到将卷积神经网络应用于图像分类问题,特别是那些训练数据集较小的问题。如果你工作的地方并非大型科技公司,这也将是你最常见的使用场景...原创 2020-02-02 16:02:53 · 670 阅读 · 0 评论 -
神经网络机器学习_通用工作流程
神经网络机器学习_通用工作流程参考:https://blog.csdn.net/dili8870/article/details/101506568【1】定义问题、收集数据集处理多分类问题的标签有两种方法通过分类编码对标签进行编码,然后使用categorical_crossentropy损失函数将标签编码为整数,然后使用sparse_categorical_crossentropy损失...原创 2020-02-01 16:55:21 · 442 阅读 · 0 评论 -
防止神经网络过拟合
参考:https://blog.csdn.net/xiewenrui1996/article/details/103940060总结一下,防止神经网络过拟合的常用方法包括:‰ 获取更多的训练数据‰ 减小网络容量防止过拟合的最简单的方法就是减小模型大小,即减少模型中可学习参数的个数(这由层 数和每层的单元个数决定)。在深度学习中,模型中可学习参数的个数通常被称为模型的容量(capacity...原创 2020-02-01 16:39:41 · 358 阅读 · 0 评论 -
keras_预测房价:回归问题
https://blog.csdn.net/xiewenrui1996/article/details/103913963《Python深度学习》下面是你应该从这个例子中学到的要点。‰ 回归问题使用的损失函数与分类问题不同。回归常用的损失函数是均方误差(MSE)。‰ 同样,回归问题使用的评估指标也与分类问题不同。显而易见,精度的概念不适用于回归问题。常见的回归指标是平均绝对误差(MAE)...原创 2020-01-31 18:25:46 · 1003 阅读 · 0 评论 -
keras_新闻多分类问题
Python深度学习‰ 如果要对 N 个类别的数据点进行分类,网络的最后一层应该是大小为 N 的 Dense 层。‰ 对于单标签、多分类问题,网络的最后一层应该使用 softmax 激活,这样可以输出在 N个输出类别上的概率分布。‰ 这种问题的损失函数几乎总是应该使用分类交叉熵。它将网络输出的概率分布与目标的真实分布之间的距离最小化。‰ 处理多分类问题的标签有两种方法。ƒ 通过分类编...原创 2020-01-31 17:37:16 · 370 阅读 · 0 评论 -
python_第一个神经网络
python_第一个神经网络import keraskeras.__version__Using TensorFlow backend.'2.0.8'A first look at a neural networkThis notebook contains the code samples found in Chapter 2, Section 1 of Deep Learning ...原创 2020-06-25 18:00:09 · 165 阅读 · 0 评论