Spark2.0.1 on yarn with hue 集群搭建部署(五)hue安装支持hadoop

hue安装

一、编译安装hue

编译相关依赖环境rpm包安装

sudo yum install apache-maven ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi gcc gcc-c++ krb5-devel libxml2-devel libxslt-devel make mysql mysql-devel openldap-devel python-devel sqlite-devel gmp-devel libffi-devel

解压hue源码包

tar –xvf /date/soft/hue-3.11.0.tgz -C /bigdata
mv hue-3.11.0 hue

编译及安装

cd /soft/hue
PREFIX=/bigdata/ make install

二、配置hue

1、修改hadoop配置

修改hadoop中hdfs-site.xml配置添加如下内容,开启web访问:

<property>
   <name>dfs.webhdfs.enabled</name>
   <value>true</value>
</property>

修改配置core-site.xml,添加如下内容,开启代理用户hadoop用户访问权限。

<property>
   <name>hadoop.proxyuser.hadoop.hosts</name>
   <value>*</value>
</property>
<property>  
   <name>hadoop.proxyuser.hadoop.groups</name>
   <value>*</value>
</property>

复制hdfs-site.xml和core-site.xml至其他hadoop集群服务器中

scp hdfs-site.xml core-site.xml hadoop@bigdata2:$PWD
scp hdfs-site.xml core-site.xml hadoop@bigdata3:$PWD
scp hdfs-site.xml core-site.xml hadoop@bigdata4:$PWD

2、hue基础配置

cd /bigdata/hue/desktop/conf
vim hue.ini

添加secret_key

secret_key=htbank@20161020buildhue,with==nothing

注:secret_key随便填写一个30-60个长度的字符串即可,如果不填写的话Hue会提示错误信息,这个secret_key主要是出于安全考虑用来存储在session store中进行安全验证的。Asia/Shanghai。

修改时区

time_zone=Asia/Shanghai

修改访问用户

server_user=hadoop
server_group=bigdata
default_user=hadoop
default_hdfs_superuser=hadoop

server_user 表示启动web服务的用户名
server_group表示启动web服务的用户所属的组
default_user为hue的admin用户,也是代理用户
default_hdfs_superuser表示管理hadoop的admin用户,如果该用户与core-site.xml设置中的用户不一致,将没有访问hdfs的权限。导致hue无法浏览hdfs文件,或无法对hdfs文件进行相关操作。

3、配置hue支持hadoop

修改hadoop配置

[hadoop]

  [[hdfs_clusters]]

    [[[default]]]

      # Enter the filesystem uri
      fs_defaultfs=hdfs://bigdata1:8020

      # Use WebHdfs/HttpFs as the communication mechanism.
      # Domain should be the NameNode or HttpFs host.
      webhdfs_url=http://bigdata1:50070/webhdfs/v1

修改yarn配置

[hadoop]

  [[yarn_clusters]]

    [[[default]]]

      # Enter the host on which you are running the ResourceManager
      resourcemanager_host=bigdata1

      # Whether to submit jobs to this cluster
      submit_to=True

      # URL of the ResourceManager API
      resourcemanager_api_url=http://bigdata1:8088

      # URL of the ProxyServer API
      proxy_api_url=http://bigdata1:8088

      # URL of the HistoryServer API
      history_server_api_url=http://bigdata1:19888

4、切换hue元数据存储至mysql中

1)、mysql环境准备

hue的元数据默认存储在sqllite3中,由于sqllite3属于轻量级数据,适合于测试使用,所以将hue元数据存储至mysql中。
使用root用户登入mysql,创建用户、数据库,用于管理hue的元数据

mysql –uroot –p

创建数据库databasename,用于管理hue的元数据:

CREATE DATABASE `databasename` DEFAULT CHARACTER SET utf8 COLLATE utf8_general_ci;

创建用户hue,用于hue管理在mysql中的数据:

CREATE USER 'username'@'%' IDENTIFIED BY 'password'; 

为用户授权,指定hue用户只有数据库hue_to_mysql的全部权限:

GRANT all ON databasename.* TO 'username'@'%';
2)、修改hue配置
vim /bigdata/hue/desktop/conf/hue.ini

修改内容具体如下:

[[database]]
    # Database engine is typically one of:
    # postgresql_psycopg2, mysql, sqlite3 or oracle.
    #
    # Note that for sqlite3, 'name', below is a path to the filename. For other backends, it is the database name
    # Note for Oracle, options={"threaded":true} must be set in order to avoid crashes.
    # Note for Oracle, you can use the Oracle Service Name by setting "host=" and "port=" and then "name=<host>:<port>/<service_name>".
    # Note for MariaDB use the 'mysql' engine.
    engine=mysql
    host=bigdata1
    port=3306
    user=username
    password=password
    # Execute this script to produce the database password. This will be used when 'password' is not set.
    ## password_script=/path/script
    name=databasename
    ## options={}

name:为创建存储hue元数据的数据库名称
user:创建的数据库用户名
password:创建该用户名登入数据库的密码

3)、导入元数据

生成元数据

/bigdata/hue/build/env/bin/hue syncdb

这里写图片描述

注:Email address:可以不输入
输入用户名:username
输入密码:password
该用户名和密码用于登入hue,且为超级用户,用于hue的所有权限。

将元数据同步到mysql中:

/bigdata/hue/build/env/bin/hue migrate

5、修改hue的日志存储路径

vim $HUE_HOME/desktop/conf/log.conf

修改内容如下:
将文件中的所有%LOG_DIR%更改为:

/data/logs/hue

6、测试

运行如下命令启动hue:

/bigdata/hue/build/env/bin/supervisor

在浏览器输入网址:bigdata1:8888如果没有配置hosts,那么使用ip:8888进行访问。进入该页面:
这里写图片描述

输入上个步骤的用户名以及密码,登入成功,进入该页面:

这里写图片描述

该页面中显示红色的栏目,表示还未配置,或者未配置成功。那么,接下来将配置hive和spark。由于spark需要依赖livy server,所以先进行livy的编译安装。

hdfs测试
这里写图片描述
打开右上角的HDFS Browers按钮,便可以对hdfs的文件进行增删等一些列操作。


欢迎拍砖,相互学习,相互进步

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值