Mac下使用Spark-shell实现WorldCount
记录一下用spark自带的例子跑Worldcount项目(注:mac下运行会省略hdfs读取文件的步骤,若在linux下运行请先用hdfs读取本地文件再进行操作)开启hadoop#进入hadoop所在文件夹下
sbin/start-all.sh使用jps查看情况,确认namenode和datanode都开启成功jps开启spark-shell#进入spark文件夹下
bin/spark-shell读
原创
2017-04-29 14:28:30 ·
1100 阅读 ·
0 评论