Spark:通过start-slaves.sh脚本启动worker报错:Permission denied

背景信息:

Spark两个节点,主机名分别为master和slave,$SPARK_HOMR/conf/slaves配置了两条记录:两行分别为master和slave。

错误描述:

但是启动的时候报错如下:

[root@master sbin]# ./start-slaves.sh 
root@master's password: 192.168.209.140: starting org.apache.spark.deploy.worker.Worker, logging to /home/spark/spark-2.2.0-bin-hadoop2.7/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave.zetyun.com.out

root@master's password: master: Permission denied, please try again.

root@master's password: master: Permission denied, please try again.

master: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).

从报错信息可以看出,是从master访问master失败了。

解决步骤:

该脚本中,要用ssh免密登录到slaves文件中的每个主机上,由于只配置了master与slave的信任关系,但没有配置master与master的信任关系,因此,造成如上失败。

因此只要将master节点的id_rsa.pub 文件内容追加到authorized_keys文件中即可。


  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Spark、Hadoop⼤数据平台搭建 下载安装包 Spark 分布式计算 ,安装包⼤⼩:220M ⽀持Hadoop 2.7以后的版本 Scala Scala环境,Spark的开发语⾔ ,安装包⼤⼩:20M Hadoop 分布式存储(计算) ,安装包⼤⼩:209M Java Java环境 ,安装包⼤⼩:187M ZooKeeper 注册中⼼ ,安装包⼤⼩:36M 配置 ⾸先需要配置环境变量 环境变量 打开并编辑 ~/.bashrc ⽂件,在末尾添加以下内容: # java JAVA_HOME=/opt/jdk1.8.0_192 export PATH=$PATH:$JAVA_HOME/bin # hadoop HADOOP_HOME=/opt/hadoop-2.7.7 export PATH=$PATH:$HADOOP_HOME/bin # zookeeper ZOOKEEPER_HOME=/opt/zookeeper-3.4.13 export PATH=$PATH:$ZOOKEEPER_HOME/bin # scala SCALA_HOME=/opt/scala-2.12.8 export PATH=$PATH:$SCALA_HOME/bin # spark SPARK_HOME=/opt/spark-2.3.2-bin-hadoop2.7 export PATH=$PATH:$SPARK_HOME/bin Host 这⾥需要设置Host,⼀个是Hadoop的Name-Node、Data-Node,⼀个sparkMasterWorker。 # hadoop 192.168.1.151 name-node 192.168.1.155 data-node-sa 192.168.1.156 data-node-sb 192.168.1.157 data-node-sc spark conf/slaves worker-sa worker-sb worker-sc 待补充 。。。 hadoop etc/hadoop/slaves data-node-sa data-node-sb data-node-sc Python3安装 安装pyspark cd /opt/spark-2.3.2-bin-hadoop2.7/python && python36 setup.py install 安装numpy pip3 install numpy -i https://pypi.mirrors.ustc.edu.cn/simple/ --trusted-host pypi.mirrors.ustc.edu.cn 启动&停⽌ hadoop sbin/start-all.sh sbin/stop-all.sh spark sbin/start-all.sh sbin/stop-all.sh 执⾏任务 提交任务 spark-submit --master spark://name-node:7077 --executor-memory 512m --total-executor-cores 2 client.py ⼏个管理页 Spark Hadoop 测试数据

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

汀桦坞

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值