分析谷歌的在线python脚本编写工具,不用再在本地安装了,琢磨了一阵本地数据怎么上传到云端去使用。
需要注意的是Colaboratory是使用了虚拟机,跟云端硬盘不是一个系统。
因此,需要按如下步骤进行:
- 创建一个新的python3脚本
- 执行指令
from google.colab import drive drive.mount('/content/gdrive')
其中会自动连接到云端硬盘,提示是否允许访问,允许后会出现一个字符串,复制后黏贴回来进行验证,通过后就ok了。
Enter your authorization code:
·········· Mounted at /content/gdrive
3.在云端硬盘上创建一个pysparkdata文件夹,下面存放自己的数据
4.在脚本里面执行切换目录的指令
import os
os.chdir("/content/gdrive/My Drive/")
已经可以看到对应的数据了,简单验证下,读取成功;
import pandas as pd
df=pd.read_csv("./pysparkdata/Mall_Customers.csv")
df.head()
CustomerID Gender Age Annual Income (k$) Spending Score (1-100)
0 1 Male 19 15 39
1 2 Male 21 15 81
2 3 Female 20 16 6
3 4 Female 23 16 77
4 5 Female 31 17 40