hive安装

Hive只在一个节点上安装即可
yum安装mysql 5.1.73

卸载系统自带的mysql

执行以下命令查看是否有自带mysql:
rpm -qa | grep mysql
如果发现有输出结果,那么执行以下命令依次删除:
rpm -e **** --nodeps
开始安装mysql

首先安装mysql客户端:
yum install mysql
然后安装mysql服务端:
yum install mysql-server 
yum install mysql-devel
至此mysql相关组件已经安装成功!

修改字符集

mysql的配置文件路径为:
/etc/my.cnf
在配置文件中加入如下配置来修改字符集:
default-character-set=utf8
启动和停止
执行如下命令来启动:
service mysqld start
停止的命令为:
service mysqld stop
将mysql加入开机启动
加入开机启动后,下次再重启机器就不用手动启动mysql服务了:
chkconfig --level 345 mysqld on
执行后,查看结果,执行命令:
chkconfig --list | grep mysql
结果如下,则证明加入开机启动成功:
配置初始密码

执行如下命令来设置root的初始密码:
mysqladmin -u root password yourPassword
登陆mysql

利用root和上一步中设置的密码,进行登陆,执行:
mysql -u root -p

1.上传tar包

2.解压
    tar -zxvf hive-0.9.0.tar.gz -C /cloud/
3.安装mysql数据库(切换到root用户)(装在哪里没有限制,只有能联通hadoop集群的节点)
    mysql安装仅供参考,不同版本mysql有各自的安装流程
        rpm -qa | grep mysql
        rpm -e mysql-libs-5.1.66-2.el6_3.i686 --nodeps
        rpm -ivh MySQL-server-5.1.73-1.glibc23.i386.rpm 
        rpm -ivh MySQL-client-5.1.73-1.glibc23.i386.rpm 
    修改mysql的密码
    /usr/bin/mysql_secure_installation
    (注意:删除匿名用户,允许用户远程连接)
    登陆mysql
    mysql -u root -p

4.配置hive
    (a)配置HIVE_HOME环境变量  vi conf/hive-env.sh 配置其中的$hadoop_home

    
    (b)配置元数据库信息   vi  hive-site.xml 
    添加如下内容:
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>

<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>

<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>

<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
<description>password to use against metastore database</description>
</property>
</configuration>
    
5.安装hive和mysq完成后,将mysql的连接jar包拷贝到$HIVE_HOME/lib目录下
    如果出现没有权限的问题,在mysql授权(在安装mysql的机器上执行)
    mysql -uroot -p
    #(执行下面的语句  *.*:所有库下的所有表   %:任何IP地址或主机都可以连接)
    GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION;
    FLUSH PRIVILEGES;

6. Jline包版本不一致的问题,需要拷贝hive的lib目录中jline.2.12.jar的jar包替换掉hadoop中的 
/home/hadoop/app/hadoop-2.6.4/share/hadoop/yarn/lib/jline-0.9.94.jar


启动hive
bin/hive

服务器启动方式

bin/hiveserver2

./beeline

!connect jdbc:hive2://localhost:10000

 

----------------------------------------------------------------------------------------------------
    
6.建表(默认是内部表)
    create table trade_detail(id bigint, account string, income double, expenses double, time string) row format delimited fields terminated by '\t';
    建分区表
    create table td_part(id bigint, account string, income double, expenses double, time string) partitioned by (logdate string) row format delimited fields terminated by '\t';
    建外部表
    create external table td_ext(id bigint, account string, income double, expenses double, time string) row format delimited fields terminated by '\t' location '/td_ext';

7.创建分区表
    普通表和分区表区别:有大量数据增加的需要建分区表
    create table book (id bigint, name string) partitioned by (pubdate string) row format delimited fields terminated by '\t'; 

    分区表加载数据
    load data local inpath './book.txt' overwrite into table book partition (pubdate='2010-08-22');
    
    load data local inpath '/root/data.am' into table beauty partition (nation="USA");

    
    select nation, avg(size) from beauties group by nation order by avg(size);

   添加一个新分区 alter table t_sz_part add partition (country='america');

删除一个分区alter table t_sz_part drop partition (country='america');

 

 
分桶表示例:

#创建分桶表
drop table stu_buck;
create table stu_buck(Sno int,Sname string,Sex string,Sage int,Sdept string)
clustered by(Sno) 
sorted by(Sno DESC)
into 4 buckets
row format delimited
fields terminated by ',';


#设置变量,设置分桶为true, 设置reduce数量是分桶的数量个数
set hive.enforce.bucketing = true;
set mapreduce.job.reduces=4;

将t_p表中的数据分桶

insert into table t_buck select id ,name from t_p distribute by (id) sort by (id) ;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值