Keras官方中文文档:常见问题与解答

本文是Keras的官方中文FAQ,涵盖了如何引用Keras、利用GPU、多GPU训练、理解基本概念(batch、epoch、sample)、模型保存、训练误差与测试误差的区别、获取中间层输出、处理大规模数据集、中断训练、验证集分割、数据洗乱、记录训练指标、状态RNN使用、冻结层、移除层、预训练模型应用、HDF5输入、配置文件位置以及如何获取可复现的实验结果等常见问题及其解答。
摘要由CSDN通过智能技术生成

所属分类: Keras

Keras FAQ:常见问题



如何引用Keras?


如果Keras对你的研究有帮助的话,请在你的文章中引用Keras。这里是一个使用BibTex的例子

@misc{chollet2015keras,
  author = {Chollet, François and others},
  title = {Keras},
  year = {2015},
  publisher = {GitHub},
  journal = {GitHub repository},
  howpublished = {\url{https://github.com/fchollet/keras}}
}


如何使Keras调用GPU?


如果采用TensorFlow作为后端,当机器上有可用的GPU时,代码会自动调用GPU进行并行计算。如果使用Theano作为后端,可以通过以下方法设置:

方法1:使用Theano标记

在执行python脚本时使用下面的命令:

THEANO_FLAGS=device=gpu,floatX=float32 python my_keras_script.py

方法2:设置.theano文件

点击这里查看指导教程

方法3:在代码的开头处手动设置theano.config.devicetheano.config.floatX

    import theano
    theano.config.device = 'gpu'
    theano.config.floatX = 'float32'


如何在多张GPU卡上使用Keras?


我们建议有多张GPU卡可用时,使用TnesorFlow后端。

有两种方法可以在多张GPU上运行一个模型:数据并行/设备并行

大多数情况下,你需要的很可能是“数据并行”

数据并行

数据并行将目标模型在多个设备上各复制一份,并使用每个设备上的复制品处理整个数据集的不同部分数据。Keras在keras.utils.multi_gpu_model中提供有内置函数,该函数可以产生任意模型的数据并行版本,最高支持在8片GPU上并行。
请参考utils中的multi_gpu_model文档。 下面是一个例子:

from keras.utils import multi_gpu_model

# Replicates `model` on 8 GPUs.
# This assumes that your machine has 8 available GPUs.
parallel_model = multi_gpu_model(model, gpus
  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值