提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
大数据之linux环境下jdk hadoop以及hbase,hive等配置
linux环境 ubun16 或者CentOS6.5
1:jdk配置
//jdk包解压并复制到指定路径
tar -zxf ~/Downloads/jdk-8u121-linux-x64.tar.gz -C /usr/local/hadoop
//在/etc/profile配置环境变量
export JAVA_HOME=/usr/local/hadoop/jdk1.8.0_121
export PATH= J A V A H O M E / b i n : JAVA_HOME/bin: JAVAHOME/bin:PATH
export CLASSPATH=.: J A V A H O M E / l i b / d t . j a r : JAVA_HOME/lib/dt.jar: JAVAHOME/lib/dt.jar:JAVA_HOME/lib/tools.jar
2:hadoop
//同上将hadoop包解压到指定路径
tar -zxf ~/Downloads/hadoop-2.6.0.tar.gz -C /usr/local/hadoop
//伪分布式配置需要配置两个文件
core-site.xml 和 hdfs-site.xml
/etc/hadoop/core-site.xml
gedit编辑 加入如下内容
hadoop.tmp.dir file:/usr/local/hadoop/tmp Abase for other temporary directories. fs.defaultFS hdfs://localhost:9000/etc/hadoop/hdfs-site.xml:
dfs.replication 1 dfs.namenode.name.dir file:/usr/local/hadoop/tmp/dfs/name dfs.datanode.data.dir file:/usr/local/hadoo