1、上传一个Hadoop包
mkdir /itcast根目录下创建一个文件,以后Hadoop统一放入其中
tar -zxvf hadoop-2.2.0-64bit.tar.gz -C /itcast/ (解压到指定目录)
3、配置hadoop伪分布式
cd /itcast/用ls查看是否有hadoop-2.2.0,然后查看其中的目录结构
cd hadoop-2.2.0/ 用ls查看:
*bin中存放可执行脚本,sbin存放启动停止相关的,etc存放配置文件
cd /itcast/hadoop-2.2.0/etc/hadoop/
指定pwd复制目录 /itcast/hadoop-2.2.0/etc/hadoop
修改配置文件(5个)
第一个、vim hadoop-env.sh
#第27行
export JAVA_HOME=/usr/java/jdk1.7.0_79
第二个: vim core-site.xml
文件中插入一行
<configuration>
<!--用来指定HDFS的老大(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name> (filesystem默认地址)
<value>hdfs://itcast01:9000</value> (hdfs://主机名+端口 )
(如果没有配置主机名可以写localhost 127.0.0.1或者192.168.8.88)
</property>
<!-- 用来指定Hadoop运行时产生文件的存放目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/itcast/hadoop-2.2.0/tmp</value>
</property>
</configuration>
第三个:hdfs-site.xml
<configuration>
<!-- 指定HDFS保存数据副本的数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
第四个、vim mapred-site.xml
mv mapred-site.xml.template mapred-site.xml
(重命名,原来之前只有mapred-site.xml.template,没有配置文件mapred-site.xml)