Hadoop & Spark集群搭建
文章平均质量分 88
myth_wm
这个作者很懒,什么都没留下…
展开
-
Centos7 下 spark1.6.1_hadoop2.6 分布式集群环境搭建
摘要 在上一篇博客《Centos7 下 Hadoop 2.6.4 分布式集群环境搭建》 已经详细写了Hadoop 2.6.4 配置过程,下面详细介绍 Spark 1.6.1的安装过程。 Scala 安装 下载 ,解压 下载 Scala-2.11.8.tgz, 解压到 /root/workspace/software/scala-2.10.4t 目录下 修改环境变量转载 2017-04-19 10:47:31 · 725 阅读 · 0 评论 -
Centos7 下 Hadoop 2.6.4 分布式集群环境搭建
摘要 在实际集群上搭建 Hadoop 2.6.4 分布式集群环境。 集群准备 有五台机器,通过已经更改机器名称为master,slaver1,slaver2,slaver3,slaver4,并设置了面密码ssh登录。可以参考这里 机器名称 ip master 192.168.122.1 slaver1转载 2017-04-19 09:31:06 · 663 阅读 · 0 评论 -
Hadoop HA高可用集群搭建
集群规划: 主机名 IP 安装的软件 运行的进程 wm01 192.168.1.201 jdk、hadoop NameNode、DFSZKFailo原创 2017-02-23 13:16:43 · 361 阅读 · 0 评论 -
Hadoop集群搭建
1.准备Linux环境 1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.1.0 子网掩码:255.255.255.0 -> apply -> ok 回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 ->原创 2017-02-14 21:56:32 · 222 阅读 · 0 评论