1.上传文件到hdfs
vi student.txt
内容:
1,dayu,23
2,wangbaoqiang,28
3,xuzheng,30
将文件上传到hdfs
hadoop fs -put student.txt /
2.读取数据并分割
在spark shell执行下面命令,读取数据,将每一行的数据使用列分隔符分割
val rdd=sc.textFile("hdfs://hadoop01:9000/student.txt").map(_.split(","))