1、安装时netconfig修改为自动连接
2、vi /etc/sysconfig/network-script/ifcfg-eth0
ONBOOT=yes
BOOTPROTO=static
IPADDR=192.168.159.100(net网段)
NETMASK=255.255.255.0(子网掩码)
GATEWAY=192.168.159.2(网关)
DNS1=192.168.159.2
3、service network restart
4、克隆
5、网络、高级、生成mac地址
6、vi /etc/sysconfig/network 修改主机名
7、vi /etc/sysconfig/network-script/ifcfg-eth0
IPADDR=192.168.159.101
删除mac地址
8、rm -rf /etc/udev/rules.d/70-persistent-net/rules
9、reboot
service iptables stop
chkconfig iptables off 开机启动关闭
chkconfig iptables --list 查看是否都关闭了
配置hosts
scp -r /etc/hosts root@192.168.159.101:/etc/
yum install -y openssh-clients
配置免密登录
ssh-keygen -t rsa
ssh-copy-id root@min2(自己也也要配置免密登陆)
ssh min2
exit 退出
yum install lrzsz
export JAVA_HOME=/root/apps/jdk1.7.0_80
export PATH=$PATH:$JAVA_HOME/bin
scp -r /etc/profile root@min2:/etc/
scp -r /root/apps root@min2:/root/
安装hadoop
1、vi /root/apps/hadoop/etc/hadoop/hadoop.env.sh
JAVA_HOME=/root/apps/jdk1.7.0_80
2、修改hadoop/etc/hadoop下的配置文件
core-site.xml
<!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://min1:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/root/apps/hadoop/tmp</value>
</property>
hdfs-site.xml
<!-- 指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.secondary.http.address</name>
<value>min1:50090</value>
</property>
mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<!-- 指定mr运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
yarn-site.xml
<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>min1</value>
</property>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
3、配置hadoop环境变量
vi /etc/profile
export HADOOP_HOME=/root/apps/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
hadoop version 查看版本
4、拷贝
scp -r /root/apps/hadoop root@min2:/root/apps
scp -r /etc/profile root@min2:/etc/
5、格式化namenode(是对namenode进行初始化)
hdfs namenode -format (hadoop namenode -format)
7、单个启动(不推荐)
hadoop-daemon.sh start namenode
jps 查看namenode是否启动
hadoop-daemon.sh start datanode
jps 查看datanode是否启动
hadoop-daemon.sh start secondarynamenode
jps 查看secondarynamenode是否启动
8、vi ~/apps/hadoop/etc/hadoop/slaves
min1
min2
min3
scp -r /root/apps/hadoop/etc/hadoop/slaves root@min2:/root/apps/hadoop/etc/hadoop/slaves
9、start-dfs.sh
start-yarn.sh
stop-dfs.sh
stop-yarn.sh
10、验证是否启动成功
使用jps命令验证
27408 NameNode
28218 Jps
27643 SecondaryNameNode
28066 NodeManager
27803 ResourceManager
27512 DataNode
http://192.168.159.100:50070 (HDFS管理界面)
http://192.168.159.100:8088 (MR管理界面)