- 博客(3)
- 收藏
- 关注
原创 HA下安装HBase
Spark安装: 1、使用hadoop账户登录 2、在相应的软件包中修改regionservers,hbase-site.xml,hbase-env.sh这些配置文件 修改方式如下: Regionservers中加入regionserver 的节点信息: ##此文件中为所有的regionserver 节点,一般添加所有的datanode 即可, 每个一行 hbase-site.x
2016-11-25 15:09:59 208
原创 生产环境基于HA的Spark搭建
Spark安装: 1、使用hadoop账户登录 2、在相应的软件包中修改slaves,spark-defaults.conf,spark-env.sh,hive-site.xml 其中:slaves中加入从节点的hostname spark-defaults.conf中修改: #主节点设置,多个节点高可用 spark.master spark://hadoop001:7077,hado
2016-11-25 14:31:07 647 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人