笔者最近在学关于Hadoop伪分布相关知识,记录一下自己修改五个配置文件过程。
一、修改主机名
1.[wjm@hadoop1 ~]$ hostname
我的主机名是hadoop1,是修改过的
localhost.localdomain即为默认的主机名
2.修改network文件:
用root用户登录,如果不是root用户,使用su命令切换为root用户:
[wjm@hadoop1 root]$ su
然后修改/etc/sysconfig下的network文件:
[root@hadoop1 ~]# cd /etc/sysconfig
[root@hadoop1 sysconfig]# vi network
添加下面两行:
NETWORKING=yes
HOSTNAME= hadoop1
3.修改hosts文件:
修改/etc下的hosts文件:
[root@hadoop1 sysconfig]# cd /etc
[root@hadoop1 etc]# vi hosts
在这个后面加入:
192.168.244.129 hadoop1
重启一下虚拟机这就修改好了
**
二、安装jdk和Hadoop
1.创建文件夹:**mkdir App
2.先解压到指定文件夹命令:tar -zxvf jdk-8u65-linux-x64.tar.gz -C ./App
3.同样解压Hadoop:tar -zxvf hadoop-2.7.1_64bit.tar.gz -C ./App
[wjm@hadoop1 ~]$ cd App
[wjm@hadoop1 App]$ su # 进入root权限
[root@hadoop1 App]# vi /etc/profile # 修改jdk环境
进入vim,按一下键盘Insert键,在按i进入编辑模式添加三条:
export JAVA_HOME=/home/wjm/App/jdk1.8.0_65
export HADOOP_HOME=/home/wjm/App/hadoop-2.7.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
按一下esc键退出编辑模式,同时按shift+w+q,输入wq保存退出
这个路径可以通过以下查询:
[root@hadoop1 jdk1.8.0_65]# pwd
/home/wjm/App/jdk1.8.0_65
[root@hadoop1 jdk1.8.0_65]# cd …
[root@hadoop1 App]# cd hadoop-2.7.1/
[root@hadoop1 hadoop-2.7.1]# pwd
/home/wjm/App/hadoop-2.7.1
[root@hadoop1 App]# source /etc/profile # 重新加载profile使配置生效
查看是否生效:
[wjm@hadoop1 ~]$ java -version
[wjm@hadoop1 ~]$ hadoop version
[wjm@hadoop1 ~]$ cd App/
[wjm@hadoop1 App]$ ll
[wjm@hadoop1 App]$ cd hadoop-2.7.1
[wjm@hadoop1 hadoop-2.7.1]$ ll
[wjm@hadoop1 hadoop-2.7.1]$ cd etc # 一定要注意进入etc中的hadoop修改
五个环境变量
[wjm@hadoop1 etc]$ ll
[wjm@hadoop1 etc]$ cd hadoop/
[wjm@hadoop1 hadoop]$ ll
①[wjm@hadoop1 hadoop]$ vi core-site.xml
<configuration>
<property>
<!--用来指定hdfs的老大,namenode的地址-->
<name>fs.defaultFS</name>
<value>hdfs://hadoop1:9000</value>
</property>
<property>
<!--用来指定hadoop运行时产生文件的存放目录--
<name>hadoop.tmp.dir</name> <value>/home/wjm/App/hadoop-2.7.1/tmp</value>
</property>
</configuration>
[wjm@hadoop1 hadoop]$ vi hadoop-env.sh
export JAVA_HOME=/home/wjm/App/jdk1.8.0_65
③[wjm@hadoop1 hadoop]$ vi hdfs-site.xml
<configuration>
<property>
<!--指定hdfs保存数据副本的数量,包括自己,默认为3-->
<!--伪分布式模式,此值必须为1-->
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
④[wjm@hadoop1 hadoop]$ vi mapred-site.xml
<configuration>
<property>
<!--指定mapreduce运行在yarn上-->
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
⑤[wjm@hadoop1 hadoop]$ vi yarn-site.xml
<configuration>
<property>
<!--指定yarn的老大resourcemanager的地址-->
<name>yarn.resourcemanager.hostname</name>
<value>hadoop1</value>
</property>
<property>
<!--NodeManager获取数据的方式-->
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
格式化namenode
进入 hadoop/bin 输入命令格式化namenode
命令:hadoop namenode -format
[wjm@hadoop1 hadoop]$ cd …
[wjm@hadoop1 etc]$ cd …
[wjm@hadoop1 hadoop-2.7.1]$ ll
[wjm@hadoop1 hadoop-2.7.1]$ cd sbin
[wjm@hadoop1 sbin]$ ll
[wjm@hadoop1 sbin]$ start-dfs.sh
[wjm@hadoop1 sbin]$ jps
网页版端口进入:192.168.244.129:50070
(前面改成你自己的IP)
以上就修改好了!!!