1、从hue官网(http://gethue.com/)下载一个tarball版( wget or 下载到本地)
2、rz 上传到服务器,解压到一个目录
3、安装依赖 :
yum install krb5-devel cyrus-sasl-gssapi cyrus-sasl-deve libxml2-devel libxslt-devel mysql mysql-devel openldap-devel python-devel python-simplejson sqlite-devel
4、指定安装目录,安装
PREFIX=/home/hadoop make install
5、hdfs 启动 httpfs,注意在namenode同台机器
httpfs.sh start
6、hbase,启动thrift,注意是thrift,不是thrift2; hive 启动hiveserver2
hbase-daemon.sh start thrift
hive --service hiveserver2 &
7、修改配置,hue.ini
Hadoop关键配置:
fs_defaultfs=hdfs://xxxx:port
webhdfs_url= (httpfs服务)
resourcemanager_host
resourcemanager_port
resourcemanager_api_url
history_server_api_url
Hive关键配置:
hive_server_host
hive_server_port
hive_conf_dir
HBase关键配置:
hbase_clusters(hbase的thrift server)
8、数据库同步:
cd /home/hadoop/hue
#同步权限表到MySQL
./hue syncdb --noinput
#各个app的表数据
./hue migrate --all
9、保证用户统一,修改整个目录权限
chow -R hadoop:hadoop /home/hadoop/hue
启动Hue
cd /home/hadoop/hue
./build/env/bin/supervisor -d -u hadoop -g hadoop
10、 登录成功 、验证
参考:
1、官方手册,参考 httpfs、http://cloudera.github.io/hue/docs-3.8.0/manual.html
2、同步mysql部分 http://my.oschina.net/cwalet/blog/217780
3、安装依赖部分,官方依赖太多 http://shiyanjun.cn/archives/1002.html?utm_source=tuicool