Spark和hadoop一样,有web管理界面,可以看到任务的执行状态。它也是分Master和Worker,在单机中,需要启动Master和Worker。
在Spark home目录下执行:
./sbin/start-all.sh
然后登录到localhost的8080端口,可以看到界面如下:
在这里,你可以看到master的地址是:
spark://jpan-Beijing:7077
即以后运行spark的一些实例时,注意master的填写方式。
Spark和hadoop一样,有web管理界面,可以看到任务的执行状态。它也是分Master和Worker,在单机中,需要启动Master和Worker。
在Spark home目录下执行:
./sbin/start-all.sh
在这里,你可以看到master的地址是:
spark://jpan-Beijing:7077