在集群之外搭建一个节点用于提交spark程序到spark集群
说明:用于提交程序的节点ip: 192.168.1.188 spark集群Master节点ip:192.168.1.73(spark集群和hadoop集群是在一起的)
1.保证该节点和集群的master节点是互通的,在该节点安装和集群同样版本的spark和hadoop程序,
不需要启动,只用于提交作业时在driver端用于获取集群信息
2.配置文件 core-site.xml 修改
ip都改成spark集群Master节点ip(重要),不能写成 主机名,识别不到
(下面的某些配置可能不是必须的)
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.1.73:9000</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/hadoop-2.7.7/tmp</value>
</property>
</configuration>
3.配置文件 hdfs-site.xml 修改