Spark-Shell On Windows 10

windows 下能用spark-shell作为客户端,去连接spark集群吗?

答案是,当然可以。具体操作如下:

  1. 先把hadoop那一套装好,确保可以连接集群;
  2. 下载spark 2.2,然后在d:\spark下解开。记得设置环境变量
    SPARK_HOME=d:\spark
    YARN_CONF_DIR=d:\hadoop\etc\hadoop
    PATH=%PATH%;%SPARK_HOME%\bin
    
  3. kerberos认证很重要,如果在第一步能够连接集群,列出目录,理论上应该没有问题;如果选择了错误的用户,运行spark-shell,则会遇到无法启动container的问题。此时要去yarn上看日志,多半能看到用户非法之类的错误提示。
  4. 运行spark-shell,还可能遇到 Cannot run program "/etc/hadoop/conf.cloudera.yarn/topology.py"的问题。此时只需要找到core-site.xml文件,把其中相关部分注释掉即可。
    <property>
    <name>net.topology.script.file.name</name>
    <value><!--/etc/hadoop/conf/topology_script.py--></value>
    </property>
    
  5. 运行spark-shell的命令为: spark-shell --master yarn --deploy-mode client

转载于:https://my.oschina.net/pearma/blog/1580577

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值