版本:hadoop-2.6.0-cdh5.14.2.tar
hadoop下载
提取码:of1u
这里博主喜欢将文件放到/opt/中
1、tar -zxf hadoop-2.6.0-cdh5.14.2.tar
2、cd soft/hadoop260/etc/hadoop
通过echo $JAVA_HOME/
查看jdk路径
这里为/opt/soft/jdk180/
3、vi hadoop-env.sh
将如图所示路径改成jdk的路径,保存并退出
4、vi core-site.xml
在如图所示位置添加以下四段代码
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.56.99:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/soft/hadoop260/tmp</value> //hadoop临时文件存储位置
</property>
<property>
<name>hadoop.proxyuser.root.hosts</name> //为机群做准备,代表以root身份任意地址都能访问
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name> //任意组中的用户都可以访问
<value>*</value>
</property>
5、vi hdfs-site.xml
在如图所示位置添加以下代码
<property>
<name>dfs.replication</name> //副本数量为1
<value>1</value>
</property>
6、cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
在如图所示位置添加以下代码
<property>
<name>mapreduce.framework.name</name> //通过yarn调动资源
<value>yarn</value>
</property>
7、vi yarn-site.xml
在如图所示位置输入以下代码
<property>
<name>yarn.resourcemanager.localhost</name>
<value>localhost</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
7、vi /etc/profile
在文件最底部添加以下代码
export HADOOP_HOME=/opt/soft/hadoop260/ //修改这里地址
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME
8、 source /etc/profile
9、hadoop namenode -format
10、start-all.sh
最后通过jps来看是否配置完成
通过192.168.56.99:50070来查看
配置完成