![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
keras
keras开发者引导,各种深度学习代码
研海无涯
Talk is cheap. Show me the code.
展开
-
keras 开发文档 6:从头开始编写训练循环(Writing a training loop from scratch)
设置import tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras import layersimport numpy as np介绍Keras提供了默认的训练和评估循环,fit()和valuate()。 用内置方法进行训练与评估指南中介绍了它们的用法。如果您想自定义模型的学习算法,同时又利用fit()的便利性(例如,使用fit()训练GAN),则可以继承Model类并实现自己的train_step()方法,原创 2020-07-15 22:20:13 · 995 阅读 · 0 评论 -
keras 开发文档 5:自定义fit()中发生的事情(Customizing what happens in fit())
文章目录介绍设置第一个简单的例子进入lower-level支持sample_weight和class_weight提供您自己的评估步骤总结:端到端GAN示例参考引用介绍当您进行监督学习时,可以使用fit(),一切都会顺利进行。当您需要从头开始编写自己的训练循环时,可以使用GradientTape并控制每个小细节。但是,如果您需要自定义训练算法,又想从fit()的便捷功能中受益,例如回调,内置分发支持或分步融合,该怎么办?Keras的核心原则是逐步揭示复杂性。您应该始终能够逐步进入较低级别的工作流程原创 2020-07-15 22:01:15 · 843 阅读 · 0 评论 -
keras开发文档 4:内置方法的训练和评估
文章目录设置介绍API概述:第一个端到端示例compile()方法:指定损失,指标和优化器( loss, metrics, and an optimizer)提供许多内置的优化器,损失和指标自定义损失自定义指标处理不符合标准签名的损失和指标自动区分验证保留集来自tf.data数据集的训练和评估使用验证数据集支持其他输入格式使用keras.utils.Sequence对象作为输入使用样本加权和类别加权Class权重Sample 权重将数据传递到多输入,多输出模型使用回调许多内置的回调可用编写自己的回调检查点模原创 2020-07-15 21:43:15 · 927 阅读 · 0 评论 -
keras 开发文档 3: 通过子类化制作新的图层和模型
文章目录设置Layer类:状态(权重)和一些计算的组合图层可以具有不可训练的权重最佳实践:将权重创建推迟到知道输入的形状为止层可递归组合add_loss()方法add_metric()方法您可以选择在图层上启用序列化call()方法中的特权 training 参数call()方法中的特权mask参数模型类放在一起:端到端的例子超越面向对象的开发:Functional API参考文献设置import tensorflow as tffrom tensorflow import kerasLayer类原创 2020-07-15 19:54:42 · 543 阅读 · 0 评论 -
keras 开发文档 2:顺序模型(The Sequential model)
设置import tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras import layers何时使用顺序模型顺序模型适用于简单的层堆栈,其中每一层正好具有一个输入张量和一个输出张量。从原理上讲,以下顺序模型:# Define Sequential model with 3 layersmodel = keras.Sequential( [ layers.Dense(2, activa原创 2020-07-15 16:53:57 · 984 阅读 · 0 评论 -
keras 开发者文档1: 功能API
文章目录设置介绍设置import numpy as npimport tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras import layers介绍Keras功能API是一种创建模型的方法,该模型比tf.keras.Sequential API更灵活。 功能性API可以处理具有非线性拓扑的模型,具有共享层的模型以及具有多个输入或输出的模型。深度学习模型通常是层的有向无环图(DAG)的主要思想。 因此,功能性原创 2020-07-15 16:14:36 · 843 阅读 · 0 评论 -
keras 开发者文档 12: 迁移学习和微调(Transfer learning & fine-tuning)
文章目录设置介绍冻结层:了解可训练的属性示例:BatchNormalization图层具有2个可训练的权重和2个不可训练的权重例子: 设置trainable 为 False可训练属性的递归设置例子:典型的迁移学习工作流程微调关于compile()和可训练的重要说明有关BatchNormalization层的重要说明通过自定义训练循环进行学习和微调端到端示例:微调猫和狗的图像分类模型获取数据标准化数据使用随机数据扩充建立模型训练顶层对整个模型进行一轮微调设置import numpy as npimpor原创 2020-07-15 11:53:43 · 1822 阅读 · 0 评论 -
keras开发者文档 11:多GPU和分布式训练
介绍通常,有两种方法可以在多个设备之间分配计算:数据并行性,其中一个模型可以在多个设备或多台机器上复制。它们每个处理不同批次的数据,然后合并结果。此设置存在许多变体,不同的模型副本合并结果的方式不同,它们是否在每个批次中保持同步,或者它们是否松散耦合等等。模型并行性,其中单个模型的不同部分在不同的设备上运行,一起处理一批数据。这最适合具有自然并行架构的模型,例如具有多个分支的模型。本指南重点介绍数据并行性,尤其是同步数据并行性,在该模型中,模型的不同副本在每次处理批次后均保持同步。同步性使模型收敛行原创 2020-07-15 10:57:54 · 907 阅读 · 0 评论 -
keras开发者文档 10:理解 masking & padding
文章目录设置介绍Padding 序列数据MaskingMask生成层:Embedding和Masking功能API和顺序API中的掩码传播将mask 张量直接传递到图层在您的自定义图层中支持masking选择mask 兼容层上的传播编写需要mask 信息的图层总结参考文献设置import numpy as npimport tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras import layers介绍Maski原创 2020-07-15 09:59:16 · 2080 阅读 · 1 评论 -
keras开发者文档 9: 使用RNN
文章目录介绍设置内置RNN层:一个简单的例子输出和状态介绍递归神经网络(RNN)是一类对于建模序列数据(例如时间序列或自然语言)非常有力的神经网络。从概念上讲,RNN层使用for循环在序列的时间步上进行迭代,同时保持内部状态,该状态对迄今为止已看到的时间步的信息进行编码。Keras RNN API的设计重点是:易于使用:内置的keras.layers.RNN,keras.layers.LSTM,keras.layers.GRU图层使您能够快速构建循环模型,而不必进行困难的配置选择。易于定制:您原创 2020-07-15 09:20:10 · 1422 阅读 · 0 评论 -
keras开发者文档 8: 编写自己的回调(Writing your own callbacks)
文章目录介绍设置Keras 回调概览回调方法概述全局方法批级的训练/测试/预测方法Epoch-level methods (training only)一个基本的例子logs字典的用法self.model属性的用法Keras回调应用程序示例以最小的损失Early stopping学习率安排内置Keras回调参考文献介绍回调是一种强大的工具,可以在训练,评估或推理期间自定义Keras模型的行为。 示例包括tf.keras.callbacks.TensorBoard通过TensorBoard可视化训练进度和原创 2020-07-10 10:18:33 · 255 阅读 · 0 评论 -
keras开发者文档 7:序列化和保存 (Serialization and saving)
文章目录介绍对于 saving & loading 来说最短的答案Setup全模型的saving & loadingSavedModel formatExample:SavedModel如何处理自定义对象Keras H5 formatExample:Saving the architecture顺序模型或功能性API模型的配置层案例序列模型案例功能模型案例Custom objectsModels and layersCustom functionsLoading the TensorFlow原创 2020-07-08 10:49:38 · 930 阅读 · 0 评论