几个月没有用hive了,感觉有点生疏了,赶紧捡回来。
新公司的hadoop版本是:
来到新公司,在已有的服务器上发现了hadoop相关的组件,输入hive和hbaseshell居然还能正常登入。嘿嘿,肯定装过hadoop。
那我就去找找hadoop装在哪里的。这个好办,随便找找hive/hbase这些进程的执行路径,顺藤摸瓜就能找到hadoop的配置文件所在目录了。
cat yarn.xml
哟呵,这下就能根据端口号登录网页查看:http://hadoop200:8088;注意想要登录成功首先得把本地(我的本地是win10)的hosts文件改成ip-域名的形式,这个也简单,直接把linux下的/etc/hosts文件里面的拷贝过来就行了。
登录网页后,嘿嘿,集群的机器都被我发现了:
查看了下发现集群上没有安装hue,没有可视化界面怎么行,下面就开始安装。
安装hue(via docker)
登入Hue官网,看到 via Docker。很好,我就是喜欢这种简单粗暴的安装方式。
search一下,再pull一下,就开始下载镜像了(当然这一步是没必要的,因为docker发现本地没有这个镜像的话,会自动下载的):
用lsof -i:8888 确保端口没被占用,然后启动:
docker run -it -p 8888:8888 gethue/hue:latest
最好加上–add-host,防止容器重启后/etc/hosts内容丢失
docker run -it -p 8888:8888 --add-host=hadoop200:192.168.11.200 gethue/hue:latest
登录hue
用http://hadoop200:8888/登录,
首次登录会要求创建一个账户
输入用户:hue
密码:admin
进去就报错: