致读者: 博主是一名数据科学与大数据专业大三的学生,一个互联网新人,写博客一方面是为了记录自己的学习过程中遇到的问题和思考,一方面是希望能够帮助到很多和自己一样处于困惑的读者。
由于水平有限,博客中难免会有一些错误,有纰漏之处恳请各位大佬不吝赐教!之后会写大数据专业的文章哦。
GitHub链接https://github.com/wfy-belief
尽管现在我的水平可能还不太及格,但我会尽我自己所能,做到最好☺
——天地有正气,杂然赋流形。下则为河岳,上则为日星。
需求: 因为最近准备学习hive,但是仅仅为了hive使用VM搭建一个集群,感觉挺难受的,于是想到了使用docker搭建一下环境Hive环境,并进行记录。
docker run -itd -p 50022:22 -p 9870:9870 -p 8088:8088 -p 3306:3306 -p 10000:10000 -p 10002:10002 --privileged --name centos-hadoop-hive2 wfybelief/centos:latest /usr/sbin/init
远程连接参考
正文
启动镜像
稍等三分钟启动时间
执行命令,可以测试连接
beeline -u jdbc:hive2://localhost:10000 -n root
这里需要的驱动有两个,一个是hadoop-common-XXXX.jar,一个是hive-jdbc-XXX-standalone.jar
其中hadoop-common-XXXX.jar 驱动在hadoop的安装目录下,hive-jdbc-XXX-standalone.jar在hive的安装目录下面。这里推荐大家使用 find 命令进行查找
执行成功!!!
注意!!! 使用localhost连接会不行,建议改为 0.0.0.0
使用自带的驱动也可以