Hadoop学习1-MacBook下Hadoop-2.9的配置

本文介绍了如何在MacBook上使用VMware Fusion搭建一个Hadoop-2.9的完全分布式环境,包括安装CentOS虚拟机、配置Hadoop环境、设置SSH无密码登陆以及初始化Namenode。
摘要由CSDN通过智能技术生成

MacBook下Hadoop-2.9的配置

由于研究生课程需要,今天下午搭建了本地Hadoop环境。我用的是Hadoop-2.9版本,不打算一上来就3.x(其实是因为大部分教程都是2.x, 呵呵)。
本人MacBook Pro配置是 8G内存,256GSSD,InterCore I5处理器。跑起来3个CentOS虚拟机+IDEA+网易云+有道云笔记+QQ+微信+20个Chrome网页不成问题,大概总占7G的内存,虽然有一点点影响系统速度,可以接受。

1. 安装VMware Fusion

由于是本地的完全分布式环境搭建,我打算在VMware Fusion中安装3个CentOS7虚拟机,其中一个即是namenode也是datanode,另外两台datanode,这样就做到1个namenode+3个datanode。

VMware Fusion 官方下载地址

2.下载CentOS镜像

在官网下载 DVD ISO 就好了,标配。

CentOS官方下载地址

3.下载Hadoop-2.9.1

下载Linux版本的Hadoop。

Hadoop下载地址

4.下载JDK1.8

jdk这里就不用说了,去官网下载Linux版本的jdk1.8。

5.配置Hadoop环境

我们首先配置一个节点,namenode节点,然后直接把配置好的hadoop打包用ssh发送给其他两个节点就好了。

  • 修改主机名修改HOSTS文件

为了方便区分,我们用 hostname xxx 命令重设主机名,我三台虚拟机分别名为namenode、datanode1、datanode2。

  • 修改Hosts文件
sudo vi /etc/hosts

加上三台虚拟机,三个虚拟机做同样的操作,注意ip地址换成自己虚拟机的,不知道可以用ifconfig命令查看。

192.168.246.128    namenode
192.168.246.129    datanode1
192.168.246.130    datanode2
  • JDK配置

Linux下JDK的配置我就不用说了,首先配置好JDK,环境变量JAVA_HOME配置好。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值