1 Mysql的配置
1.1安装mysql
安装Mysql
yum install mysql-server
启动mysql
service mysqld start
设置密码
/usr/bin/mysqladmin -u root password root
设置开机启动
chkconfig mysqld on
1.2创建hive的数据库
进入mysql客户端中
mysql -u root -p
提示输入密码:root
创建Hive用户
create user ’hive’ identified by 'hive'
赋予hive用户权限
grant all on hive.* to hive@'%' identifiedby 'hive';
GRANT ALL PRIVILEGES ON hive.* TO'hive'@'localhost' IDENTIFIED BY 'hive' WITH GRANT OPTION;
(注意localhost 主机名 )
flush privileges;
进入hive用户
mysql -u hive -p
提示密码:hive
2 Hive的配置
2.1 安装Hive
将hive-0.13.1.tar.gz文件拷贝到hadoop同级目录下
cp hive-0.13.1.tar.gz /root
tar -zxvf hive-0.13.1.tar.gz
此时在/root目录下会有一个hive-0.13.1目录
2.2 配置hive
将mysql-connector-java-5.1.18-bin.jar拷贝到/root/hive-0.13.1/lib下
修改/opt/modules/hadoop/hive-0.9.0/conf/hive-site.xml如下:
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>hive</value>
</property>
添加环境变量(根据自己的配置进行修改):
vi /etc/profile
export JAVA_HOME=/usr/java/last
export HIVE_HOME=/root/hive-0.13.1
export HADOOP_HOME=/root/hadoop
export HIVE_CONF_DIR=$HIVE_HOME/conf
export HIVE_LIB=$HIVE_HOME/lib
exportCLASSPATH=$HIVE_HOME/lib:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME
exportPATH=$HIVE_HOME/bin:$HADOOP_HOME/bin:$JAVA_HOME/bin:/sbin/:/bin:$PATH
使环境变量生效
source /etc/profile
2.3测试hive
启动hive
在命令行下直接执行hive语句
在/opt 下创建a.txt
vi a.txt
1 bb(中间是以Tab间隔的)
测试(在hive 的shell中):
show databases;
show tables;
CREATE TABLE my(
viewTime INT,
page_url STRING)
ROWFORMAT DELIMITED
FIELDS TERMINATED BY '\t'
STORED AS TEXTFILE;
LOAD DATA LOCAL INPATH '/opt/a.txt'OVERWRITE INTO TABLE my;
select * from my;
这时候再查看mysql的hive数据库下的表;
这时候会生成很多的表。
刚才创建的mysql会在TBLS中显示。
mysql –u hive –p
hive
use hive;
show tables;
select * from TBLS;
如下图:
3.客户端的配置
3.1同步hive
将整个hive的安装目录同步到客户端的相应目录下:
scp -r /root/hive-0.13.1hadoop3:/root/
(在本环境中hiive的安装目录是/root下,客户端主机是hadoop3)
3.2 配置hive
将mysql-connector-java-5.1.18-bin.jar 拷贝到/root/hive-0.13.1/lib下
修改hive-site.xml
<property>
<name>hive.metastore.local</name>
<value>false</value>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://hadoop2:9083</value>
</property>
注:hadoop2为服务端(hive metastore)主机
3.3同步环境变量
scp -r/etc/profile hadoop3:/etc/
3.4测试hive
启动hive
在命令行下直接执行hive语句
在/opt 下创建a.txt
vi a.txt
1 bb(中间是以Tab间隔的)
测试(在hive 的shell中):
show databases;
show tables;
CREATE TABLE my(
viewTime INT,
page_url STRING)
ROW FORMAT DELIMITED
FIELDSTERMINATED BY '\t'
STORED AS TEXTFILE;
LOAD DATA LOCAL INPATH'/opt/a.txt' OVERWRITE INTO TABLE my;
select * from my;