hive是hadoop中一个很好的工具,如果感觉能用的着,可以尝试安装,在官方文档里安装hive很简单,几乎不用改变hadoop中原有的配置,但是在现实情况中,安装会遇到很到问题
第一步:安装hadoop的需要的配置文件,此处是伪分布式:
/conf下core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/hdfs/hadoop/hadoop-${user.name}</value>
</property>
</configuration>
hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-i386
export HADOOP_HOME=/app/ecom/hadoop
export HADOOP_CONF_DIR=/app/ecom/hadoop/conf
export HADOOP_HEAPSIZE=512
export HADOOP_CLASSPATH=.:$CLASSPATH:$HADOOP_CLASSPATH:$HADOOP_HOME/bin(此处hive需要使用,必须填写)
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
mapred-site.xml
<configuration><property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
在/etc/profile下
export HADOOP_HOME=/app/ecom/hadoop
export PATH=$HADOOP_HOME/bin:$PATH
export HADOOP_CLASSPATH=/app/ecom/hadoop
HIVE_HOME=/app/ecom/hadoop/hive
HADOOP_HOME=/app/ecom/hadoop
JAVA_HOME=/usr/lib/jvm/java-6-openjdk
PATH=$JAVA_HOME/bin:$HIVE_HOME/bin:$HADOOP_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$HIVE_HOME/lib:$JAVA_HOME/lib/tools.jar
export HIVE_HOME
export PATH
export CLASSPATH
此处添加的有点重复,请自行修改
hadoop大致安装完毕
下面安装hive
安装hive主要是修改hive下conf文件夹里的内容使用的都是从模板中的得到的数据
cp hive-default.xml.template hive-site.xml
cp hive-en.sh.template hive-env.sh
cp hive-log4j.properties.template hive-log4j.properties
三个文件中需要修改的内容为:
site中主要配置存储元数据的数据库,一般使用mysql
env中
# Set HADOOP_HOME to point to a specific hadoop install directory
HADOOP_HOME=/app/ecom/hadoop
# Hive Configuration Directory can be controlled by:
export HIVE_CONF_DIR=/app/ecom/hadoop/hive/conf
# Folder containing extra ibraries required for hive compilation/execution can be controlled by:
export HIVE_AUX_JARS_PATH=/app/ecom/hadoop/hive/lib
log4j中不需要修改,如果想吧hive的日志单独存放到其他为可以自行修改,默认的hive日志存放路径为/tmp/{user}/hive.log中
不要犯二,一定要在启动了hadoop集群的基础上在启动hive。