Google Colaboratory:一款用于深度学习的免费GPU使用方法

众所周知,在训练深度学习时候需要非常大计算资源,通常CPU是不能满足需求的,这个时候就需要使用GPU来进行计算。但是如果自己购买高性能的GPU,比如1080Ti都需要3000左右。因此,本文介绍一款免费的GPU计算资源:GPU Colaboratory。

一、Google Colab介绍

Google Colaboratory(可缩写为Google Colab)是谷歌开放的一款用于机器学习领域的免费研究工具,最主要的是它给AI研究人员提供了免费的Tesla K80 GPU使用,该GPU以前具有24GB的显存容量(现在大概为16GB),可以轻松的训练Keras、Tensorflow、Pytorch等框架的深度学习模型。

Google Colab是基于jupyter notebook环境的,支持python2/3,同时还包括GPU、TPU加速。它与Google云盘集成,用户可以通过Google云盘共享项目或将其他项目复制到自己的账户中。

二、Google Colab使用方法

2.1 登陆Google云盘

Google云盘的网址为:https://drive.google.com/drive/my-drive,并注册账户。这样就可以开心地使用Google Colaboratory了,打开云盘,点击我的云盘硬盘下面的新建文件夹,创建自己的项目文件Deep Learning

在这里插入图片描述

2.2 创建Google Colab类型文件

右键创的项目文件Deep Learning,选择打开方式下的关联更多应用

在这里插入图片描述
如下图所示,在Goolge Workspace Marketplace中安装Colaboratory应用。

在这里插入图片描述
这时,我们就可以根据下图,创建Colaboratory文件了。点击建立的文件Deep Learning,在文件的空白处点击鼠标右键,在弹出的对话框中选择更多,然后选择Google Colaboratory

在这里插入图片描述
这样我们就在Deep Learning文件夹下面创建了Colaboratory类型的文件了,系统会以网页形式打开如下图所示。Colaboratory类型文件是一个Jupyter notebook文件,可以通过网页打开它,并在该文件中编辑python文件。点击文件中的重命名我们就可以自定义Colaboratory文件的名字了。

在这里插入图片描述

2.3 Colaboratory文件环境配置

如果想让创建的Colaboratory文件跑GPU程序,我们需要对其进行环境配置。双击建立的Colaboratory文件,如下图所示,点击工具栏的修改,然后点击笔记本设置

在这里插入图片描述
如下图所示,在弹出的笔记本设置对话框中进行环境配置。在硬件加速器中选择GPU,最后保存推出就完成了GPU环境配置。

在这里插入图片描述

注意:
这里如果不配置GPU,创建的Colaboratory类型的文件运行的远程Google Colaboratory虚拟环境是没有显卡信息的。

2.4 Google Colaboratory的与深度学习相关配置环境基本信息

注意:
(1)创建的Colaboratory类型的Example_1.ipynb文件是运行在Google Colaboratory远程服务器上的,它是一个以jupyter notebook界面显示的深度学习开发环境的Ubuntu20.04系统
(2)因此,我们不仅可以在上面运行python脚本,还可以使用pip指令安装库,甚至还能运行Linux Shell脚本,只不过需要在Linux指令前面加一个。另外,还需要注意的是在Google Colaboratory平台上cd命令是无效的,切换目录使用的是os.chdir命令,比如,切换到根目录:import os; os.chdir('/')

  • 如下图所示,给出Google Colaboratory远程服务器上一些基本信息,可以看出系统默认安装的Tensorflow版本为2.8.8,python版本为3.7,系统为ubuntu18.04。

  • 需要输入的命令为:

from tensorflow import python
import tensorflow as tf
print('Google Colaboratory远程服务器中的Tensorflow版本:', tf.__version__)
print('Google Colaboratory远程服务器中的Python版本及其位置:')
print(python)

!lsb_release -a

在这里插入图片描述

  • 如下图所示,Google Colaboratory远程服务器上显卡信息如下所示,显存为16GB,最高支持的CUDA版本为11.2。

在这里插入图片描述

  • 如下图所示,输入命令!nvcc --version,可以看出Google Colaboratory远程服务器上CUDA的版本为11.1版本。

在这里插入图片描述

  • 如下图所示,可以查看CPU内存、GPU内存使用上限,由下图可以看出,CPU的使用上限只有256M,GPU内存的使用上限为11.4GB,另外,如果购买Colab pro显存会变为16GB。
    指令如下所示:
from tensorflow.python.client import device_lib
device_lib.list_local_devices()

在这里插入图片描述

  • 如下图所示,可以查看GPU是否在Google Colaboratory中,输出结果为'/device:GPU:0'表示GPU已经添加到Google Colaboratory中了。
  • 查看GPU是否在Google Colaboratory中的指令为
import tensorflow as tf
tf.test.gpu_device_name()

在这里插入图片描述

三、Google Colaboratory挂载谷歌云盘(Google Drive)

创建的Google Colaboratory远程服务器的工作目录是/content(相当于Linux系统的/home目录)。我们可以将谷歌云盘(Google Drive)挂载到Google Colaboratory远程服务器上的/cotent/grive文件夹上。为了弄清除挂载谷歌云盘的过程,如下图所示,我们首先查看挂载前文件夹/content下的内容,这个时候只有示例的一些经典的深度学习数据集合。

在这里插入图片描述
Google Colaboratory挂载谷歌云盘的python代码如下所示:

from google.colab import drive
drive.mount('/content/gdrive')

执行完上面的python代码后,在Goole Colaboratory上创建的项目Deep Learning就根谷歌云盘同步了,结果如下图所示:
在这里插入图片描述

3.1 加载本地数据到云盘上

从本地上传数据
我们首先在本地的系统中创建若干个文本文件,我在系统的/home/liang/文档下面创建一个文档Google_Drive,用于存放本地数据,并创建两个文本文档存放数据(作为演示用,文档中的内容可以随便写),如下图所示:

在这里插入图片描述

注意:从本地上传使用的是Google Colaboratory平台的python函数files.upload:它返回的是一个关于上传文件信息的字典格式数据,其中,字典键值为文件名,字典的值为文件内的数据。

然后在Google Colaboratory平台上输入如下代码:

from google.colab import files

uploaded = files.upload()
for fn in uploaded.keys():
  print('上传的文件 "{name}" 有 {length} 比特'.format(
      name=fn, length=len(uploaded[fn])))

运行代码,弹出如下所示的上传文件对话框,点击B,在本地的/home/liang/文档/Google_Drive文件夹中选择文本1和文本2,进行上传。

在这里插入图片描述
。上传的结果如下图所示:

在这里插入图片描述

3.2 下载云盘数据到本地

将文件下载到
首先在Google Colaboratory平台上点击文件结构(网页左边),找到/content/gdrive/MyDrive/Deep Learning文件夹,右键Deep Learning文家夹,在弹出下拉框点击新建文件,创建exam文件,双击exam文件输入hellow world!

在这里插入图片描述
然后,在Google Colaboratory平台上输入如下代码,就可以将代码下载到本地的/home/liang/下载文件夹内了。

from google.colab import files
files.download('./exam.txt')
  • 9
    点赞
  • 90
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
### 回答1: Halcon是一种功能强大的计算机视觉软件库,它为用户提供了各种用于图像处理和分析的功能。Halcon深度学习是其最新的功能之一,它利用了深度神经网络来帮助解决图像识别和分类等任务。 深度学习是一种计算密集型的任务,它需要大量的计算资源来训练和运行神经网络模型。而GPU(图形处理单元)是一种专门用于高性能计算的硬件,它在并行计算方面表现出色。相比之下,传统的中央处理单元(CPU)在深度学习任务上的计算速度较慢。 Halcon深度学习需要GPU来加速深度学习任务的推理过程,即将训练好的神经网络模型应用于实际的图像处理任务中。使用GPU可以显著提高深度学习任务的运行速度,从而实现更高效的图像识别和分类。 值得注意的是,Halcon深度学习GPU的要求并不是非常高,一般来说,拥有一块较新的中高端GPU即可满足大部分的深度学习应用需求。因此,使用Halcon深度学习时,如果想要获得更好的性能和效果,建议配备一块支持CUDA或OpenCL的独立显卡。 ### 回答2: Halcon深度学习需要GPU的原因是为了加快深度学习模型的训练和推理过程。深度学习模型具有复杂的网络架构和大量的参数,普通的CPU无法满足其计算需求,而GPU具备更强大的并行计算能力,可以加速模型训练和推理的速度。 在Halcon深度学习中,GPU可以提供高效的并行计算,同时支持更大规模的模型和数据集。通过利用GPU的并行计算能力,可以加速神经网络中复杂的矩阵运算、卷积操作等计算过程,并提高模型在大规模数据集上的训练速度。 此外,Halcon深度学习使用GPU还能够提供更好的实时性能。在很多实时应用场景中,需要在短时间内对大量数据进行处理和分析,使用GPU可以在保证准确性的同时提高处理速度,从而满足实时性要求。 综上所述,Halcon深度学习需要GPU是为了提高模型训练和推理速度,支持更大规模的模型和数据集,以及满足实时应用的要求。 ### 回答3: Halcon深度学习需要使用GPU是因为深度学习任务通常需要大量的计算资源来处理复杂的神经网络模型和海量的数据。相比于传统的中央处理器(CPU),图形处理器(GPU)具有更优异的并行计算能力,可以同时进行大量的计算操作,提高深度学习任务的处理效率。 使用GPU可以加速深度学习任务的训练和推理过程。在训练神经网络模型时,通过并行计算,GPU可以更快地进行矩阵运算、张量操作和梯度更新等关键计算步骤,加快模型的训练速度。在推理过程中,GPU可以高效地进行神经网络的前向计算,实时地对输入数据进行处理和分析。 此外,由于深度学习任务的数据量通常较大,需要在GPU的高速内存中进行存储和处理,以支持高效的数据并行计算。GPU的高速内存带宽和容量可以提供良好的数据访问速度和存储能力,以满足深度学习任务的需求。 综上所述,使用GPU可以显著提高Halcon深度学习任务的处理效率和性能,加速训练和推理过程。然而,需要注意的是,使用GPU进行深度学习任务需要相应的硬件设备和软件支持,这也可能增加一定的成本和配置要求。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

嵌入式技术

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值