Google Colab及其使用

注意:本文不提供访问外网的方法,默认你已能自由访问外网。

  • Colaboratory 是一个 Google 研究项目,旨在帮助传播机器学习培训和研究成果。它是一个 Jupyter 笔记本环境,不需要进行任何设置就可以使用,并且完全在云端运行。
  • Colaboratory 笔记本存储在 Google 云端硬盘中,并且可以共享,就如同您使用 Google 文档或表格一样。Colaboratory 可免费使用,包括它的GPU资源。
  • 利用Colaboratory ,可以方便的使用Keras,TensorFlow,PyTorch,OpenCV等框架进行深度学习应用的开发。
    在这里插入图片描述

点击文件可以上传本地的notebook到Google云盘,然后即可打开运行:

在这里插入图片描述

如果想要上传本地保存的训练数据(如csv文件),点击最左边的上传按钮即可,或者可以直接拖拽上传。注意:此时的文件是临时保存的,程序终止运行会自动删除。

在这里插入图片描述

你也可以直接下载文件:

### 如何在Google Colab使用GPU 为了在Google Colab环境中启用并验证GPU支持,可以按照以下方法操作: #### 启用GPU加速器 Colab默认提供CPU环境,但用户可以选择切换到GPU模式。这通过修改笔记本设置来完成。导航至菜单栏中的`Runtime`选项卡,接着选择`Change runtime type`。在此界面内,找到硬件加速器部分,并将其更改为`GPU`[^1]。 #### 验证GPU可用性 一旦启用了GPU配置项后,可以通过Python代码片段确认当前实例是否已连接上合适的NVIDIA GPU设备。下面给出了一段用于检测所分配之图形处理单元详情的小程序示例: ```python import tensorflow as tf print("TensorFlow version:", tf.__version__) device_name = tf.test.gpu_device_name() if device_name != '/device:GPU:0': raise SystemError('GPU device not found') print(f'Found GPU at: {device_name}') ``` 这段脚本会打印出正在使用的TensorFlow版本号以及发现的具体GPU路径;如果没有找到任何GPU,则抛出异常提醒用户检查设置情况[^2]。 另外一种简单的方式是直接调用命令行工具nvidia-smi查询显存占用状况和其他相关信息: ```bash !nvidia-smi ``` 该指令能够展示关于CUDA驱动状态、GPU型号规格及其内存利用率等方面的数据表单形式呈现给使用者查看[^3]。 当一切顺利的话,在经过数次刷新页面或重启运行时之后,应该可以看到系统提示已经成功获取到了所需的计算资源[^4]。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

微笑小星

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值