大数据之hive安装和配置

hive简介

hadoop是为了存储数据和计算而推广的技术,而和数据挂钩的也就属于数据库的领域了,所以hadoop和DBA挂钩也就是情理之中的事情,在这个基础之上,我们就需要为了DBA创作适合的技术。

hive正是实现了这个,hive是要类SQL语句(HiveQL)来实现对hadoop下的数据管理

MySQL安装

官网下载mysql-server(yum安装)

wget http://dev.mysql.com/get/mysql-community-release-el7-5.noarch.rpm

解压

rpm -ivh mysql-community-release-el7-5.noarch.rpm

安装

yum install mysql-community-server

重启mysql服务:

service mysqld restart 

进入mysql

mysql -u root

为root用户设置密码

mysql> set password for 'root'@'localhost' =password('root');

远程连接设置:
把在所有数据库的所有表的所有权限赋值给位于所有IP地址的root用户:

mysql> grant all privileges on *.* to root@' %'identified by 'root';
mysql>flush privileges; 刷新权限

如果是新用户而不是root,则要先新建用户:

mysql>create user 'username'@' %' identified by 'password';  

hive安装和配置

以hive-2.3.5为例子

通过wget下载hive-2.3.5

wget http://mirror.bit.edu.cn/apache/hive/hive-2.3.5/apache-hive-2.3.5-bin.tar.gz

将hive解压到/usr/local

tar -zxvf apache-hive-2.3.5-bin.tar.gz -C /usr/local/

将文件重命名为hive文件:

mv apache-hive-2.3.5-bin hive

在 vi /etc/profile末尾加

export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin

执行source /etc.profile

执行hive --version
有hive的版本显现,安装成功!

配置hive-env.sh

cp hive-env.sh.template  hive-env.sh

修改Hadoop的安装路径

HADOOP_HOME=/opt/module /hadoop-2.3.5

修改Hive的conf目录的路径

export HIVE_CONF_DIR=/usr/local/hive/conf

配置hive-site.xml

cp hive- default.xml.template  hive-site.xml 
<property>
<!-- 元数据库的链接地址 mysql -->
       <name>javax.jdo.option.ConnectionURL</name>         
<value>jdbc:mysql://bigdata131:3306/hivedb?createDatabaseIfNotExist=true</value>
       <description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<!-- 指定mysql驱动 -->
<!-- mysql5的驱动是com.mysql.jdbc.Driver,mysql6以后的是com.mysql.cj.jdbc.Driver。 --> 
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
        <description>Driver class name for a JDBC metastore</description>
</property>
<property>
<!-- 指定mysql用户名 -->
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
        <description>username to use against metastore database</description>                    
</property>
<property>
<!-- 指定mysql密码 请输入自己的MySQL连接密码 -->
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>root</value>
        <description>password to use against metastore database</description>
</property>

启动hive

启动Hadoop
初始化Metastore架构:schematool -dbType mysql -initSchema
启动Hive:hive
hive> 进入hive shell

Hive应用实例:wordcount

建数据源文件并上传到hdfs的/user/input目录下
建数据源表t1:create table t1 (line string)
装载数据:load data inpath ‘/user/input’ overwrite into table t1;
编写HiveQL语句实现wordcount算法,建表wct1保存计算结果:

create table wct1 as select word, count(1) as count from (select explode (split (line, ' ')) as word from t1) w group by word order by word;

查看wordcount计算结果:

select * from wct1
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值