安装hive:
将hive文件传输到Linux中hadoop用户目录下,然后将其解压至opt目录中
解压好后进入其目录中,在一个conf目录下找到hive-default.xml.template这个文件,将其复制并改名为hive-site.xml后进入修改
配置元数据库地址
找name 改value
第一个:(找不到的话就按n)
/javax.jdo.option.ConnectionURL
jdbc:mysql://python2:3306/hiveautoReconnect=true&useUnicode=true&createDatabaseIfNotExist=true&characterEncoding=utf8&useSSL=false&serverTimezone=UTC
/javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Driver
/javax.jdo.option.ConnectionUserName
Root
/javax.jdo.option.ConnectionPasswo
root
/hive.metastore.warehouse.dir #hadoop集群位置(这个默认就可以 不用改)
初始化hive元数据和启动hive
配置环境变量:
在lib目录下执行schematool -dbType mysql –initSchema,这里会报一个错误,需要我们现在一个jar文件,需要使用到wget命令,但我们系统中没有安装,所以我们要切换到root用户下安装
之后回到hadoop用户下的lib目录下载jar包
然后敲hive会报错,找到报错问题,找到默认文件位置,自己创建一个hivetmp文件夹在hadoop目录下,去刚刚hive_site.xml文件,把报错的路径java.io.tmpdir复制,去这个文件查找,把所有查找到的value全部改成自己在hadoop目录下创建的那个文件夹的绝对路径(pwd一下,然后复制),有两个是有默认文件夹的,要留下
再重新敲hive,就进去了(和mysql一样 都是>hive)
但我们启动hiveserver2,输入后光标会一直卡在这里,我们只需要复制一个管道,在这个管道中进入hive的bin目录下,输入: ./beeline -u jdbc:hive2://