安装配置Hive、MySQL及其JDBC驱动
1、安装Mysql
(1)在Windows下进行下载Mysql
(2)将压缩包从Windows传输到Linux当前目录下:
put D:\大数据软件\mysql-community-release-el7-5.noarch.rpm
(3)解压:rpm -ivh mysql-community-release-el7-5.noarch.rpm
(4)安装:yum install mysql-community-server
(5)重启mysql服务
service mysqld restart (以后开机不需启动mysql)
进入mysql:mysql -u root
(6)配置文件
/etc/my.cnf
加上编码配置:
[mysql] default-character-set =utf8
2、Hive安装与配置
(1)在Windows下载压缩包
(2)将压缩包从Windows传输到Linux当前目录下
SecureCRT 【File】→【Connect SFTP Session】开启sftp操作
put F:\大数据软件\apache-hive-2.3.5-bin.tar.gz
(3)解压
解压安装到指定目录下/home/shui(/home是系统自带目录,之下的/shui是自己创建的)
tar -zxvf apache-hive-2.3.5-bin.tar.gz -C /home/shui
修改解压目录名为hive。
mv apache-hive-2.3.5-bin.tar hive
(4)修改环境变量
配置环境变量,将HIVE_HOME写入:
#重新加载配置文件
$ source /root/.bash_profile
Source命令更新etc/profile文件,使其生效。
运行:hive --version,出现版本号及安装成功
(5)配置hive-env.sh
修改Hadoop的安装路径
HADOOP_HOME=/home/shui /hadoop-2.7.3
修改Hive的conf目录的路径
export HIVE_CONF_DIR=/home/shui/hive/conf
(6)配置hive-site.xml
进入/home/shui/hive/conf目录,修改default.xml.template的文件名为hive-site.xml。(可以使用cp或者mv命令)
在最后添加以下属性:
3、MySQL Connector-java安装
(1)官网下载
(2)将压缩包从Windows传输到Linux当前目录下
put F:\大数据软件\mysql-connector-java-5.1.47.tar.gz
(3)解压
解压到指定目录下/home/shui(/home是系统自带目录,之下的/yong是自己创建的)
tar -zxvf mysql-connector-java-5.1.47.tar.gz -C /home/yong
(4)拷贝驱动包
将驱动包mysql-connector-java-5.1.47-bin.jar复制到/home/shui/hive/lib目录中。
4、启动hive
(1)启动Hadoop:
start-all.sh
(2)初始化Metastore架构:
schematool -dbType mysql -initSchema
(3)启动Hive:
[root@node4 ~]# hive
19/05/20 13:14:01 WARN conf.Hi
Logging initialized using conf.hive>
如果能正常的显示登录到hive的命令行下,就表示安装成功了
(4)然后就可以进行: 创建/删除/修改/查看 数据库、表、视图,向表中装载数据,查询数据等操作