hadoop、spark、zookeeper、hive集群搭建脚本

mkdir /letv/bigdata

tar xzf zookeeper-3.4.8.tar.gz -C /letv/bigdata/
tar xzf hadoop-2.7.2.tar.gz -C /letv/bigdata/
tar xzf apache-hive-2.1.0-bin.tar.gz -C /letv/bigdata/
tar xzf scala-2.11.8.tgz -C /letv/bigdata/
tar xzf spark-2.0.0-preview-bin-hadoop2.7.tgz -C /letv/bigdata/
tar xzf jdk-8u91-linux-x64.gz -C /letv/bigdata/
ls /letv/bigdata/



THIS_SCRIPT_DIR=$(cd $( dirname $0) && pwd)

mkdir /letv/bigdata/hadoop-2.7.2/pid_dir

cp -a ./apache-hive-2.1.0-config/* /letv/bigdata/apache-hive-2.1.0-bin/
cp -a ./hadoop-2.7.2-config/* /letv/bigdata/hadoop-2.7.2/
cp -a ./spark-2.0.0-config/* /letv/bigdata/spark-2.0.0-preview-bin-hadoop2.7/

cp -a ./zookeeper-3.4.8-config/* /letv/bigdata/zookeeper-3.4.8/


rsync /letv/bigdata/ root@THadoop2:/letv/bigdata/ -avz --delete
rsync /letv/bigdata/ root@THadoop3:/letv/bigdata/ -avz --delete
rsync /letv/bigdata/ root@THadoop4:/letv/bigdata/ -avz --delete
rsync /letv/bigdata/ root@THadoop5:/letv/bigdata/ -avz --delete
rsync /letv/bigdata/ root@THadoop6:/letv/bigdata/ -avz --delete
rsync /letv/bigdata/ root@THadoop7:/letv/bigdata/ -avz --delete
rsync /letv/bigdata/ root@THadoop8:/letv/bigdata/ -avz --delete


#### zoo keeper
ssh root@THadoop5 "echo 5 > /letv/bigdata/zookeeper-3.4.8/data/myid; cat /letv/bigdata/zookeeper-3.4.8/data/myid;"
ssh root@THadoop6 "echo 6 > /letv/bigdata/zookeeper-3.4.8/data/myid; cat /letv/bigdata/zookeeper-3.4.8/data/myid;"
ssh root@THadoop7 "echo 7 > /letv/bigdata/zookeeper-3.4.8/data/myid; cat /letv/bigdata/zookeeper-3.4.8/data/myid;"

ssh root@THadoop5 "source ~/.bash_profile; cd /letv/bigdata/zookeeper-3.4.8/bin; ./zkServer.sh start; "
ssh root@THadoop6 "source ~/.bash_profile; cd /letv/bigdata/zookeeper-3.4.8/bin; ./zkServer.sh start; "
ssh root@THadoop7 "source ~/.bash_profile; cd /letv/bigdata/zookeeper-3.4.8/bin; ./zkServer.sh start; "

ssh root@THadoop5 "source ~/.bash_profile; cd /letv/bigdata/zookeeper-3.4.8/bin; ./zkServer.sh status;"
ssh root@THadoop6 "source ~/.bash_profile; cd /letv/bigdata/zookeeper-3.4.8/bin; ./zkServer.sh status;"
ssh root@THadoop7 "source ~/.bash_profile; cd /letv/bigdata/zookeeper-3.4.8/bin; ./zkServer.sh status;"


ssh root@THadoop5 "source ~/.bash_profile; /letv/bigdata/hadoop-2.7.2/sbin/hadoop-daemon.sh start journalnode;"
ssh root@THadoop6 "source ~/.bash_profile; /letv/bigdata/hadoop-2.7.2/sbin/hadoop-daemon.sh start journalnode;"
ssh root@THadoop7 "source ~/.bash_profile; /letv/bigdata/hadoop-2.7.2/sbin/hadoop-daemon.sh start journalnode;"

# 在Master1上格式化namenode
# http://eksliang.iteye.com/blog/2226986
# http://blog.csdn.net/jackli31742/article/details/51483876

#在1上格式化NameNode
ssh root@THadoop1 "source ~/.bash_profile; hdfs zkfc -formatZK; hdfs namenode -format; /letv/bigdata/hadoop-2.7.2/sbin/hadoop-daemon.sh start namenode; "

#将NameNode的数据同步到2上
ssh root@THadoop2 "source ~/.bash_profile; hdfs namenode -bootstrapStandby; /letv/bigdata/hadoop-2.7.2/sbin/hadoop-daemon.sh start namenode; " 

#启动 datanode
#ssh root@THadoop1 "source ~/.bash_profile; /letv/bigdata/hadoop-2.7.2/sbin/hadoop-daemons.sh start datanode; /letv/bigdata/hadoop-2.7.2/sbin/start-yarn.sh; /letv/bigdata/hadoo
p-2.7.2/sbin/hadoop-daemon.sh start zkfc; "
ssh root@THadoop1 "source ~/.bash_profile; /letv/bigdata/hadoop-2.7.2/sbin/start-all.sh "
##开启负载均衡
/letv/bigdata/hadoop-2.7.2/sbin/start-balancer.sh -threshold 1


##启动hive服务
nohup hive --service metastore -v &

##启动spark
/letv/bigdata/spark-2.0.0-preview-bin-hadoop2.7/sbin/start-all.sh 

##启动spark sql cli
#hadoop fs -chmod -R +w /tmp/hive
#/letv/bigdata/spark-2.0.0-preview-bin-hadoop2.7/bin/spark-sql --master  spark://92:7077 yarn-client
要搭建hadoop3.1.4、sparkhive、hbase和flink集成环境,可以按照以下步骤进行: 1. 首先,从官网下载并安装hadoop3.1.4版本。解压缩并配置hadoop的环境变量,包括JAVA_HOME、HADOOP_HOME、HADOOP_CONF_DIR等。 2. 接下来,下载并安装Apache Spark。解压缩后,设置SPARK_HOME环境变量,并在spark-defaults.conf文件中配置hadoop相关的路径,如hadoop.home.dir和spark.yarn.stagingDir等。 3. 下载并安装Apache Hive。解压缩后,设置HIVE_HOME环境变量,并在hive-site.xml文件中配置hadoop相关的路径,如hadoop.home.dir和hive.metastore.warehouse.dir等。 4. 下载并安装Apache HBase。解压缩后,设置HBASE_HOME环境变量,并在hbase-site.xml文件中配置hbase.rootdir和hbase.zookeeper.quorum等相关参数。 5. 最后,下载并安装Apache Flink。解压缩后,设置FLINK_HOME环境变量,并在flink-conf.yaml文件中配置hadoop相关的路径,如fs.defaultFS和yarn.resourcemanager.address等。 完成上述步骤后,可以启动hadoopsparkhive、hbase和flink的相关服务,并确保它们能够相互通信和集成。可以通过运行相应的启动脚本,如start-dfs.sh、start-yarn.sh、start-master.sh和start-worker.sh来启动相关服务。 总结:以上就是搭建hadoop3.1.4、sparkhive、hbase和flink集成环境的基本步骤。通过配置各自的环境变量和相关配置文件,并启动相应的服务,即可实现它们之间的集成和通信。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值