- 博客(1)
- 收藏
- 关注
原创 spark、hadoop动态增减节点
之前在搭建实验环境的时候按部就班的配置好,然后就启动了。后来再一琢磨,有点不对劲。分布式系统的一个优势就是动态可伸缩性,如果增删节点需要重启那肯定是不行的。后来发现的确是不需要重启的。具体方法如下:增加节点修改集群里机器的所有配置(增加此节点)在此节点上启动:./bin/hadoop-daemon.sh start datanode./bin/hadoop-daemon
2016-12-28 16:14:15 1382
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人