hadoop完全分布式安装心得


1.  虚拟机的克隆

克隆后需要做的事:

(1)   配置网卡

vim/etc/udev/rules.d/70-persistent-net.rules

删掉eth0,把eth1改为eth0

(2)   修改ip

vim/etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE=eth0

TYPE=Ethernet

UUID=564d8635-4604-72cb-4911-a39c511a5f3a(UUID在Windows中存放虚拟机文件里同名的文件夹中,乱码的那个就是)(随便更改一位也可以)

ONBOOT=yes

NM_CONTROLLED=yes

BOOTPROTO=none

IPADDR=192.168.91.103(自己写)

PREFIX=24

GATEWAY=192.168.91.2

DNS1=8.8.8.8

DEFROUTE=yes

IPV4_FAILURE_FATAL=yes

IPV6INIT=no

NAME="System eth0"

HWADDR=00:0C:29:1A:5F:3A(右键-虚拟机设置-网络适配器-高级)

LAST_CONNECT=1504682951

(3)   改主机名/改映射文件(hosts)

vi /etc/sysconfig/network

vi /etc/hosts

service network restart(重启生效)

2.  安装JAVA、Hadoop

(1)   解压命令(.gz压缩包)

tar –zxvf [压缩包所在目录]–C [要解压的地方(一般为/usr/local/)]

(2)   配置环境变量

vim /etc/profile

在最后添加

#my settings

export JAVA_HOME=/usr/local/jdk1.7.0_79/

export HADOOP_HOME=/usr/local/hadoop/

exportPATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:


3.  设置SSH免密登录

(1)   在hadoop下生成公钥和私钥

ssh-keygen -t rsa

(2)   追加到key文件当中

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

(3)   将master机子上的key给其他机子上发送一份(两种方法都可以)

ssh-copy-id hadoop02

ssh-copy-id hadoop03

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop是一个开源的分布式计算框架,用于处理大规模数据集的存储和分析。下面是Hadoop完全分布式安装的基本步骤: 1. 安装Java:首先确保你的系统已经安装了Java环境,Hadoop是基于Java开发的。你可以从Oracle官网下载并安装适合你系统的Java版本。 2. 下载Hadoop:从Apache官网下载Hadoop的最新稳定版本。解压下载的压缩包到你选择的目录。 3. 配置环境变量:编辑你的系统环境变量文件(如.bashrc或者.bash_profile),添加以下内容: ``` export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin ``` 4. 配置Hadoop:进入Hadoop安装目录,找到`etc/hadoop`目录,修改以下配置文件: - `hadoop-env.sh`:设置JAVA_HOME为你的Java安装路径。 - `core-site.xml`:配置Hadoop的核心参数,如文件系统类型、NameNode地址等。 - `hdfs-site.xml`:配置HDFS(Hadoop分布式文件系统)相关参数,如副本数量、数据块大小等。 - `mapred-site.xml`:配置MapReduce相关参数,如任务调度器类型、任务并行度等。 - `yarn-site.xml`:配置YARN(Yet Another Resource Negotiator)相关参数,如资源管理器地址、节点管理器地址等。 5. 配置SSH免密登录:Hadoop需要通过SSH与集群中的节点通信,因此需要配置SSH免密登录。生成SSH密钥对,并将公钥分发到所有节点上。 6. 格式化HDFS:在NameNode节点上执行以下命令,格式化HDFS: ``` hdfs namenode -format ``` 7. 启动Hadoop集群:依次启动Hadoop集群的各个组件,可以使用以下命令: ``` start-dfs.sh # 启动HDFS start-yarn.sh # 启动YARN ``` 8. 验证安装:通过访问Hadoop的Web界面,如NameNode的http://localhost:50070和ResourceManager的http://localhost:8088,来验证Hadoop是否成功安装和运行。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值