这几天配置hadoop以及启动的一些问题的总结。。。。
首先配置!!!
hadoop配置文件所在地: $HADOOP_HOME/etc/hadoop/
解压hadoop2.7.3 jar包 和 jdk1.8.0 的jar包 配置环境变量 ~/.profile 文件下
export JAVA_HOME="/mysoftware/jdk1.8.0_101"
export HADOOP_HOME="/mysoftware/hadoop-2.7.3"
设置java环境 hadoop-env.sh
export JAVE_HOME=/mysoftware/jdk1.8.0_101
接下来配置core-site.xml
<configuration>
//外部访问hadoop文件系统的URL
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value> <!--master为主机名-->
</property>
//hadoop产生临时文件所存放的位置
<property>
<name>hadoop.tmp.dir</name>
<value>file:/mysoftware/hadoop-2.7.3/tmp<
首先配置!!!
hadoop配置文件所在地: $HADOOP_HOME/etc/hadoop/
解压hadoop2.7.3 jar包 和 jdk1.8.0 的jar包 配置环境变量 ~/.profile 文件下
export JAVA_HOME="/mysoftware/jdk1.8.0_101"
export HADOOP_HOME="/mysoftware/hadoop-2.7.3"
设置java环境 hadoop-env.sh
export JAVE_HOME=/mysoftware/jdk1.8.0_101
接下来配置core-site.xml
<configuration>
//外部访问hadoop文件系统的URL
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value> <!--master为主机名-->
</property>
//hadoop产生临时文件所存放的位置
<property>
<name>hadoop.tmp.dir</name>
<value>file:/mysoftware/hadoop-2.7.3/tmp<