Centos6.8安装HUE
HUE 在编译时有两种方式:
1.通过maven、ant编译
2.通过python编译(在centos6.5因为自身python为2.6.6版本和hue编译需要2.7版本会有一点小冲 突,故采用1)两种方式都是在hue目录下 make apps,只是第一种方式要先配置maven、ant的环境 而已
注意:不要使用root 用户安装
准备安装环境
Centos6.8
Python 2.6.6(系统自带)
apache-maven-3.x
jdk1.8及以上
apache-ant-1.8.1
hue-3.7.0-cdh5.3.6
安装步骤
1.安装Maven和Ant
自己下载对应的压缩包解压并配置环境变量即可
将MAVEN_HOME/bin与ANT_HOME/bin添加到path下即可
别忘记source /etc/profile
最后检查是否安装成功
mvn -version
ant -v
只要出现对应的版本即成功
2.安装hue所需要的依赖包
如果更换了yum源,没有缓存的话,需要更新一下缓存
yum clean all
yum makecache
安装gcc
yum install gcc
安装依赖
yum install asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gcc-c++ krb5-devel libffi-devel libtidy libxml2-devel libxslt-devel make mysql mysql-devel openldap-devel python-devel sqlite-devel openssl-devel gmp-devel -y
如果报错mysql的jar包冲突,是因为自己安装的mysql版本与yum源安装的mysql依赖版本不兼容
解决方法:
由于Centos6下yum源安装的mysql相关依赖默认是5.1.39版本,如果自己电脑上没有安装mysql,则直接使用以上命令安装依赖,如果安装了不同版本的mysql,则需要删掉上面命令中的mysql与mysql-devel,并且自己去mysql官网下载自己安装的mysql版本对应的mysql-devel的rpm包,并且自己安装
<a href="https://dev.mysql.com/downloads/mysql/">mysql相关jar包下载地址</a>
3.解压下载的hue的tar包并且编译
tar -zxvf hue-3.7.0-cdh5.3.6.tar -C /opt/app
cd /opt/app/hue-3.7.0-cdh5.3.6
make apps
4.权限处理
以上操作我都是在root下操作,但是说不让使用root
所以我创建了hue用户,并且修改hue文件夹所有者和所属组
useradd hue
passwd hue
chgrp hue 文件名 -R
chown hue 文件名 -R
5.修改配置文件hue.ini
vim /opt/app/hue-3.7.0-cdh5.3.6/desktop/conf/hue.ini
修改这八个属性:
secret_key=jFE93j;2[290-eiw.KEiwN2s3['d;/.q[eIW^y#e=+Iei*@Mn<qW5o 官网给的key
http_host=hadoop111 本机的ip或主机名
http_port=8888 hue的端口号
time_zone=Asia/Shanghai 时区
# Webserver runs as this user
server_user=root
server_group=root
# This should be the Hue admin and proxy user
default_user=root
# This should be the hadoop cluster admin
default_hdfs_superuser=root
因为使用的是root用户,所以修改了四个名字,将其都改为了root
如果使用hue用户,那么改为hue即可
6.测试
如果是HA则需要先启动httpfs-site.xml
httpfs.sh start
如果不是HA则直接启动hue
此时在hue的文件目录下启动hue端口
cd /opt/app/hue-3.7.0-cdh5.3.6
开启端口
build/env/bin/supervisor
此时访问8888端口(配置文件里自己配置的8888)
如果下面不配置hue的元数据存储在mysql上
那么第一次登陆时的账户密码是以后hue的超级管理员,
需要自己牢记
如果下面配置了hue的元数据存储在mysql上
则不需要记住,只要能登录进去就行
7.hue与hdfs的集成
- 修改httpfs-site.xml
- 如果不是HA 则不需要配置httpfs-site.xml
#因为我用root用户操作,所以我的代理用户配置的root
<property>
<name>httpfs.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>httpfs.proxyuser.root.groups</name>
<value>*</value>
</property>
- 修改hdfs-site.xml
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
<!-- 默认为true。如果为true,则启用HDFS的权限检查 否则不启-->
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>
- 修改core-site.xml
添加
<property>
<name>hadoop.proxyuser.hue.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hue.groups</name>
<value>*</value>
</property>
#设置代理用户
<!--因为我是用root操作的,所以我的代理用户为root-->
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
- 修改hue.ini文件
找到[hadoop]标签
修改
fs_defaultfs=hdfs://hadoop111:9000
##如果是HA 则默认的端口是14000 需要将50070改为14000
webhdfs_url=http://hadoop111:50070/webhdfs/v1
手动添加hadoop相对应的以下路径
hadoop_conf_dir=/opt/app/hadoop-2.7.7/etc/hadoop/
hadoop_hin=/opt/app/hadoop-2.7.7/bin/
hadoop_hdfs_name=/opt/app/hadoop-2.7.7/
7.2 将hadoop的配置文件分发到其他机器
scp core-site.xml hadoop02:/opt/app/hadoop-2.7.7/etc/hadoop
scp core-site.xml hadoop03:/opt/app/hadoop-2.7.7/etc/hadoop
scp hdfs-site.xml hadoop02:/opt/app/hadoop-2.7.7/etc/hadoop
scp hdfs-site.xml hadoop03:/opt/app/hadoop-2.7.7/etc/hadoop
scp httpfs-site.xml hadoop02:/opt/app/hadoop-2.7.7/etc/hadoop
scp httpfs-site.xml hadoop03:/opt/app/hadoop-2.7.7/etc/hadoop
- 重启集群
8.配置ResourceManager
- 修改hue.ini文件
[[yarn_clusters]]
...
# [[[ha]]]
# Resource Manager logical name (required for HA)
#不是HA可以不配置
logical_name=hadoop111
# Un-comment to enable
## submit_to=True
# URL of the ResourceManager API
resourcemanager_api_url=http://hadoop111:8088
9.配置hive
- 修改hue.ini文件
[beeswax]
# Host where HiveServer2 is running.
# If Kerberos security is enabled, use fully-qualified domain name (FQDN).
hive_server_host=hadoop111
# Port where HiveServer2 Thrift server runs on.
hive_server_port=10000
# Hive configuration directory, where hive-site.xml is located
hive_conf_dir=/opt/app/apache-hive-2.3.6/conf
- 启动hiveserver2
hive --service hiveserver2 &
10.配置hbase
- hbase配置的是thriftserver2服务器地址,不是master地址,而且需要用小括号包起来。thriftserver需要单独启动
- 修改hue.ini文件
[hbase]
# Comma-separated list of HBase Thrift servers for clusters in the format of '(name|host:port)'.
# Use full hostname with security.
# If using Kerberos we assume GSSAPI SASL, not PLAIN.
hbase_clusters=(hadoop111:9090)
# HBase configuration directory, where hbase-site.xml is located.
hbase_conf_dir=/opt/app/hbase/conf
- 启动thriftserver服务器
hbase-daemon.sh start thrift
11.hue元数据更改存储在mysql上
hue默认使用sqlite作为元数据库,不推荐在生产环境中使用。会经常出现database is lock的问题。
更改为使用mysql作为元数据库
- 修改hue.ini文件
...
[[database]]
# Database engine is typically one of:
# postgresql_psycopg2, mysql, sqlite3 or oracle.
#
# Note that for sqlite3, 'name', below is a path to the filename. For other backends, it is the database name
# Note for Oracle, options={"threaded":true} must be set in order to avoid crashes.
# Note for Oracle, you can use the Oracle Service Name by setting "host=" and "port=" and then "name=<host>:<port>/<service_name>".
# Note for MariaDB use the 'mysql' engine.
engine=mysql
host=192.168.80.111
port=3306
user=root
password=root
# Execute this script to produce the database password. This will be used when 'password' is not set.
## password_script=/path/script
name=hue
## options={}
# Database schema, to be used only when public schema is revoked in postgres
## schema=
- 在mysql中create database hue
- 初始化数据库表
- hue的初始化数据表命令由hue/bin/hue syncdb完成,创建期间,需要输入用户名和密码
- 这个用户名和密码即为登录hue的超级管理员密码
#同步数据库
$>~/hue-3.12.0/build/env/bin/hue syncdb
#导入数据,主要包括oozie、pig、desktop所需要的表
$>~/hue-3.12.0/build/env/bin/hue migrate
- 查看在mysql的hue数据库中是否生成了所需要的表
12. 解决hue ui界面查询中文乱码问题
-
在[[[mysql]]]节点下
-
options={ “init_command”:“SET NAMES ‘utf8’”}