Keras入门(3)——磨刀不误砍柴工

1. 前言

今天我们就正式进行Keras实验。在早些时候,我们只是在PC上进行一些小实验,能够让我们对于Keras有一定的直观的认识。下面才是我们进入到最真实的开发环境。

2. 磨刀

2.1 硬件设施

当然真正的实验不能够在我们个人电脑上运行了。因此我们需要一个功能强大的远程服务器。以个人为例,我们假设目前已经拥有了一个2路的E5-2680V4和4路Tesla K40的Linux的服务器。
E5-2680V4处理器具有14核心,价格在18000左右,而Tesla K40 具有12GB的显存,价格在27000左右,2013年发布时,号称是地球上最强显卡,当然目前来看,仍然也处于顶尖水平。

显卡型号单精度性能双精度性能
Tesla P10010.65.3
QUADRO GP10010.35.2
Tesla K808.742.91
Tesla K404.291.43
GTX 10808.70.2
GTX Titan x70.2
GTX 9804.60.15

2.2 软件设施

2.2.1Linux登录

当然远程连接少不了远程工具,如果是Linux远程的话,会容易很多,从命令行进入即可。例如:

  1. 远程管理指定 Linux 服务器
ssh 用户名@ip

首次连接服务器时,会提示下载服务器的公钥(通常使用 RSA 加密方式创建 SSH 密钥,所以提示信息一般是“RSA key…”),需要输入 yes 确认。然后输入用户名对应的密码,就可以登录服务器了。要断开与服务器的连接,输入 exit。

  1. 下载文件
scp [-r] 用户名@ip:文件路径 本地路径
  1. 上传文件
scp [-r] 本地文件 用户名@ip:上传路径

2.2.2Windows登录

Windows虽然日常用起来很方便,但是如果是开发的话,还是比较麻烦的,因此我们需要两个工具,分别是XshellWinscp。其中Xshell主要负责远程命令行,而Winscp则负责传输文件。具体配置我们这里就不多讲,比较傻瓜,只需要知道用户名和密码,就可以很方便的使用。

2.3 观察环境

一般来讲,一个服务器环境至少需要以下几个部分:python+Anaconda+Tensorflow+Keras。整体来讲我们都介绍过,我们这里主要提一下Tensorflow的编译问题,具体的可以参考:《编译Tensorflow》、《源码安装Tensorflow》等。我们这里不多讲,我们这里讲一讲如何查看我们所使用的GPU和CPU资源。因为如果你对自己的所有性能都不了解的话,怎么能够充分发挥自己的性能呢。

2.3.1 GPU查看

对于GPU来讲,一般我们使用英伟达显卡,就如同上面我说的一样,一般GTX1070起跳,好的话可以配置Tesla系列。那么查看英伟达系列显卡的使用情况的代码如下,在命令行中敲入以下命令:

nvidia-smi

没错,就是这么简单,回车后,应该看到类似的样子:
这里写图片描述
当然如果没有看到这样的话,一个可能原因就是你的服务器里没有英伟达系列显卡。

2.3.2 CPU查看

如果是查看CPU的话,建议使用以下命令:

top

这个命令是用来查看当前进程的,可以看到有哪个用户的哪个进程在活动以及它的CPU使用情况。

lscpu

这个代码则是大致的展示以下CPU的概况。
这里写图片描述

3. 小试牛刀

下面我们随意使用一个程序来测试一下就像我们本机一样就可以了。但是,我们这里有4块K40显卡,编号为0的显卡已经被占用了。如果原封不动使用以下命令来执行:

python mnist.py

显然,它会默认占用编号为0的显卡。这和我们的想法不一致。我们想指定使用某一张显卡怎么办?

CUDA_VISIBLE_DEVICES=1 python train.py

或者是在文件的代码里加入以下代码:

import os
os.environ["CUDA_VISIBLE_DEVICES"] = "1"

这行代码就是指定编号为1的GPU来运行。由于太过兴奋,我们冲昏了头脑,以为可以使用以下代码来实现多个GPU运行:

CUDA_VISIBLE_DEVICES=1,2,3 python train.py

是的,没错,我们看到了在GPU上确实开了3个进程,但是我们发现只有1块GPU上使用了加速,也就是Volatile GPU-Util的使用率只有1号显卡在运行,其他显卡的Volatile GPU-Util均为0。

后来我们冷静了下来才发现,CUDA_VISIBLE_DEVICES其实指的是CUDA加速库可见的设备。也就是说,这其实是屏蔽某些编号的CPU的代码,而并非是并行代码。

同样的,我们发现在原来的服务器上,仍然有一个和我们有类似情况的进程,那么他是不是也是这种情况呢?

没错,这种情况其实是偶然发生的,如果是全部都占满显存,其实是由于TF的机制所致,它默认是占用全部的显存,而并非用多少拿多少。那么这个该如何改变呢?
方法1,限制程序的显存占有量。我们可以使用以下代码:

import os
import tensorflow as tf
os.environ["CUDA_VISIBLE_DEVICES"] = "2"
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
#限制最多GPU占用为30%
config.gpu_options.per_process_gpu_memory_fraction = 0.3
set_session(tf.Session(config=config))

但是,其实当我们的程序真的需要比30%内存多的时候,还是会突破这个限制的。
方法2,使用增长型内存使用模式。

config = tf.ConfigProto()  
config.gpu_options.allow_growth=True  
sess = tf.Session(config=config)  

只需要在文件中加入以上代码,就可以根据需求来调用显存了。

那么,我们如何真正使用并行计算呢?《使用Keras进行分布式/多GPU运算》、《Tensorflow分布式实战多机多卡GPU,CPU并行》、
Tensorflow cluster 分布式集群使用说明》也许会有所帮助。

当然还有一个和这个情况不同的问题:《GPU Memory Usage占满而GPU-Util却为0》。

Keras:基于Theano和TensorFlow的深度学习库 这就是Keras Keras是一个高层神经网络库,Keras由纯Python编写而成并基Tensorflow或Theano。Keras 为支持快 速实验而生,能够把你的idea迅速转换为结果,如果你有如下需求,请选择Keras: 简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性) 支持CNN和RNN,或二者的结合 支持任意的链接方案(包括多输入和多输出训练) 无缝CPU和GPU切换 Keras适用的Python版本是:Python 2.7-3.5 Keras的设计原则是 模块性:模型可理解为一个独立的序列或图,完全可配置的模块以最少的代价自由组合在一起。具 体而言,网络层、损失函数、优化器、初始化策略、激活函数、正则化方法都是独立的模块,你可 以使用它们来构建自己的模型。 极简主义:每个模块都应该尽量的简洁。每一段代码都应该在初次阅读时都显得直观易懂。没有黑 魔法,因为它将给迭代和创新带来麻烦。 易扩展性:添加新模块超级简单的容易,只需要仿照现有的模块编写新的类或函数即可。创建新模 块的便利性使得Keras更适合于先进的研究工作。 与Python协作:Keras没有单独的模型配置文件类型(作为对比,caffe有),模型由python代码描 述,使其更紧凑和更易debug,并提供了扩展的便利性。 Keras从2015年3月开始启动,经过一年多的开发,目前Keras进入了1.0的时代。Keras 1.0依然遵循相 同的设计原则,但与之前的版本相比有很大的不同。如果你曾经使用过此前的其他版本Keras。你或许 会关心1.0的新特性。 泛型模型:简单和强大的新模块,用于支持复杂深度学习模型的搭建。 更优秀的性能:现在,Keras模型的编译时间得到缩短。所有的RNN现在都可以用两种方式实现, Keras中文文档 以供用户在不同配置任务和配置环境下取得最大性能。现在,基于Theano的RNN也可以被展开, 以获得大概25%的加速计算。 测量指标:现在,你可以提供一系列的测量指标来在Keras的任何监测点观察模型性能。 更优的用户体验:我们面向使用者重新编写了代码,使得函数API更简单易记,同时提供更有效的 出错信息。 新版本的Keras提供了Lambda层,以实现一些简单的计算任务。 ... 如果你已经基于Keras0.3编写了自己的层,那么在升级后,你需要为自己的代码做以下调整,以 在Keras1.0上继续运行。请参考编写自己的层 关于Keras-cn 本文档是Keras文档的中文版,包括keras.io的全部内容,以及更多的例子、解释和建议,目前,文档 的计划是: 1.x版本:现有keras.io文档的中文翻译,保持与官方文档的同步 2.x版本:完善所有【Tips】模块,澄清深度学习中的相关概念和Keras模块的使用方法 3.x版本:增加Keras相关模块的实现原理和部分细节,帮助用户更准确的把握Keras,并添加更多 的示例代码 现在,keras-cn的版本号将简单的跟随最新的keras release版本 由于作者水平和研究方向所限,无法对所有模块都非常精通,因此文档中不可避免的会出现各种错误、 疏漏和不足之处。如果您在使用过程中有任何意见、建议和疑问,欢迎发送邮件 到moyan_work@foxmail.com与我取得联系。 您对文档的任何贡献,包括文档的翻译、查缺补漏、概念解释、发现和修改问题、贡献示例程序等,均 会被记录在致谢,十分感谢您对Keras中文文档的贡献! 同时,也欢迎您撰文向本文档投稿,您的稿件被录用后将以单独的页面显示在网站中,您有权在您的网 页下设置赞助二维码,以获取来自网友的小额赞助。 如果你发现本文档缺失了官方文档的部分内容,请积极联系我补充。 本文档相对于原文档有更多的使用指导和概念澄清,请在使用时关注文档中的Tips,特别的,本文档的 额外模块还有: 一些基本概念:位于快速开始模块的一些基本概念简单介绍了使用Keras前需要知道的一些小知 识,新手在使用前应该先阅读本部分的文档。 Keras安装和配置指南,提供了详细的Linux和Windows下Keras的安装和配置步骤。 深度学习与Keras:位于导航栏最下方的该模块翻译了来自Keras作者博客keras.io和其他Keras相关 博客的文章,该栏目的文章提供了对深度学习的理解和大量使用Keras的例子,您也可以向这个栏 目投稿。 所有的文章均在醒目位置标志标明来源与作者,本文档对该栏目文章的原文不具有任何处 置权。如您仍觉不妥,请联系本人(moyan_work@foxmail.com)删除。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI让世界更懂你

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值