hive单节点安装

一,基础环境安装准备
1.修改主机名
hostnamectl set-hostname hadoop (Ctrl+D重新连接)
2.关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
3.修改hosts文件
vi /etc/hosts

192.168.200.2 hadoop

二,安装jdk
1.新建tgz目录,(将安装包放入创建的tgz目录下)
mkdir /tgz
复制到该目录下:
cp /tgz/jdk-8u45-linux-x64.tar.gz /usr/lib
在该目录下解压jdk:
cd /usr/lib
tar -zxvf jdk-8u45-linux-x64.tar.gz
2.修改环境变量
vi /etc/profile

JAVA_HOME=/usr/lib/jdk1.8.0_45
PATH=$JAVA_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/jre/lib/ext:$JAVA_HOME/lib/tools.jar
export PATH JAVA_HOME CLASSPATH

3.刷新环境变量
source /etc/profile
4.验证是否成功
java
java -version
三,安装Hadoop(安装所需要的安装包都放到tgz目录下)
1.安装Hadoop-2.5.2
cd /tgz
将hadoop复制到该目录下:
cp hadoop-2.5.2.tar.gz /opt/
在该目录下解压
cd /opt/
tar -zxvf hadoop-2.5.2.tar.gz
2.修改配置文件
vi /etc/profile

HADOOP_HOME=/opt/hadoop-2.5.2
PATH=$HADOOP_HOME/bin:$PATH
export HADOOP_HOME PATH

刷新文件
source /etc/profile
3.修改hadoop-env.sh配置文件
vi /opt/hadoop-2.5.2/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/lib/jdk1.8.0_45

4.修改yarn-env.sh配置文件
vi /opt/hadoop-2.5.2/etc/hadoop/yarn-env.sh

export JAVA_HOME=/usr/lib/jdk1.8.0_45

5.修改core-site.xml配置文件
vi /opt/hadoop-2.5.2/etc/hadoop/core-site.xml

<property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/hadoop-2.5.2/tmp</value>
        <description>Abase for other temporary directories.</description>
</property>
<property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop:9000</value>
</property>
<property>
        <name>io.file.buffer.size</name>
        <value>4096</value>
</property>

6.修改hdfs-site.xml配置文件
vi /opt/hadoop-2.5.2/etc/hadoop/hdfs-site.xml

<property>
        <name>dfs.namenode.name.dir</name>
        <value>/opt/hadoop-2.5.2/dfs/name</value>
&
  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
安装节点 Hive 需要以下步骤: 1. 安装 Java Hive 需要 Java 环境,因此需要先安装 Java。可以使用以下命令安装 OpenJDK: ``` sudo yum install java-1.8.0-openjdk ``` 2. 下载和解压 Hive 可以从 Apache 官网下载 Hive 的压缩包,解压到指定目录下: ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz tar -xzvf apache-hive-3.1.2-bin.tar.gz sudo mv apache-hive-3.1.2-bin /usr/local/hive ``` 3. 配置环境变量 需要将 Hive 的 bin 目录加入 PATH 环境变量中,可以在 `/etc/profile` 中添加以下内容: ``` export HIVE_HOME=/usr/local/hive export PATH=$PATH:$HIVE_HOME/bin ``` 然后使配置生效: ``` source /etc/profile ``` 4. 配置 Hive Hive 的配置文件在 `$HIVE_HOME/conf` 目录下,需要进行以下配置: - hive-env.sh:配置 Java 环境变量 ``` export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk ``` - hive-site.xml:配置 Hive 的参数 ``` <configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:derby:;databaseName=/usr/local/hive/metastore_db;create=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>org.apache.derby.jdbc.EmbeddedDriver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>password</value> <description>password to use against metastore database</description> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>/usr/local/hive/warehouse</value> <description>location of default database for the warehouse</description> </property> </configuration> ``` 其中,`hive.metastore.warehouse.dir` 是 Hive 的数据仓库目录,需要提前创建。 5. 启动 Hive 可以使用以下命令启动 Hive: ``` hive ``` 如果一切正常,会进入 Hive 的交互式界面。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值