1. 配置主机名 /etc/sysconfig/network hostname=master master是主节点的意思
需要重启虚拟机才能生效
2. 配置主机名和ip地址的映射
先确保静态ip配置好了,在主机可以ping虚拟机,在虚拟机可以ping通主机
eth0 的网卡设置为 仅主机模式
/etc/hosts 192.168.56.2 master
3.ssh
先确保自己电脑上安装了ssh rpm -qa | grep ssh
安装过ssh 可以直接启动服务 service sshd start ,关闭linux防火墙 service iptables stop
chkconfig iptables off 永久关闭
ssh免密登录
1、生成公钥 ssh-keygen -t rsa
2.拷贝公钥 ssh-copy-id -i ~/.ssh/id_rsa.pub root@master
4.java 环境配置
首先上传jdk和hadoop压缩包
1.解压 jdk tar -zxvf jdk......
2.配置环境变量
需要先删除本地的jdk
查找本地安装的jdk包 rpm -qa | grep jdk
删除本地包 rpm -e --nodeps xxxx.......
配置环境变量 /etc/profile
export JAVA_HOME=/java的安装地址
export PATH=$PATH:$JAVA_HOME/bin
环境变量配置好以后先 source 生效 source /etc/profile
验证配置成功 java -version 1.8的版本
5.hadoop配置
1、解压hadoop tar -zxvf hadoop....
2. 配置环境变量 /etc/profile
export HADOOP_HOME=/hadoop的安装地址
export PATH=$PATH:$HADOOP_HOME/bin
使环境变量生效 source
3.配置hadoop 的配置文件、
在 hadoop安装目录 下的 etc/hadoop
hadoop-env.sh
配置jdk 和hadoop的环境变量
export JAVA_HOME=/root/soft/jdk1.8.0_161
export HADOOP_HOME=/root/soft/hadoop-2.6.0-cdh5.7.0
core-site.xml
配置 hdfs文件系统的地址
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:8020</value>
</property>
hdfs-site.xml
第一个 dfs.replication data副本的数量 第二个 dfs.name.dir namenode的数据存放地址
第三个 dfs.data.dir datanode 的数据存放地址
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/root/soft/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/root/soft/hdfs/data</value>
</property>
slaver
配置 master
格式化 hdfs
hadoop namenode -format
启动 在hadoop安装目录下 的sbin目录
./start-dfs.sh 启动
./stop-dfs.sh 停止
启动成功jps 会有 四个进程 datanode namenode secondarynamenode jps