切换root用户
修改主机名为:username
vim /etc/sysconfig/network-scripts/ifcfg-ens33
修改网卡配置文件
BOOTPROTO=static 静态IP
BOOTPROTO=dhcp 动态IP
BOOTPROTO=none 无(不指定)
ONBOOT是指明在系统启动时是否激活网卡
IPADDR:IP设置
PREFIX=24 子网掩码位数
Gateway:网关
重启网卡
vim /etc/hosts
hosts文件是Linux系统上一个负责ip地址与域名快速解析的文件
192.168.171.3 username centos环境ip加设置的主机名
二、找到一个真机和虚拟机通讯的平台,可以传文件,也可以用vmtools
这里用WinScp软件
软件界面
主机名是配置好的ip 用户名是最高权限名称
连接后,把以下两个文件导入centos环境
我导入的是环境的根目录
大家可以发现两个文件是压缩包形式,肯定是需要解压使用了
这里用到的命令是tar -zxvf 文件名
发现名字太长,改下名字。这里用到的是“mv”剪切或在同目录下移动或重命名
查看一下解压并重命名成功
三、配置免密
1.产生密钥:ssh-keygen -t rsa
2.创建公钥:cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys 复制这个给那个
3.密钥拷贝到虚拟机ssh-copy-id -I master
4.测试 ssh 192.168.171.3
四、配置jdk和hadoop PATH
vim /etc/profile 全局变量配置文件
配置hadoop
export HADOOP_HOME=hdoop路径
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
配置jdk
export JAVA_HOME=jdk路径
export PATH=$JAVA_HOME/bin:$PATH
:wq保存退出
使环境生效 source /etc/profile
Source在当前bash环境下读取并执行FileName中的命令。
五、配置hadoop文件
进文件目录: cd /root/hadoop/etc/hadoop
- vim hadoop-env.sh
export JAVA_HOME=/usr/local/jdk
- vim core-site.xml
<configuration>
<property>
<name>fs.defaultFS </name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>(tmp目录)
<value>/usr/local/hadoop/tmp</value>
</property>
</configuration>
- vim hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
- vim mapred-site.xml (cp mapred-site.xml.template mapred-site.xml) #改名
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
- vim yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8035</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
</configuration>
六、格式化hadoop
hdfs namenode -format
七、启动进程
start-dfs.sh
start-yarn.sh
八、JPS查看下启动进程
有这个6个进程就成功了
如果有个没用的进程,kill -9 +进程号就行杀掉