HUE3.9搭建并配置HDFS,Hive

运行环境:
hadoop-2.6.0-cdh5.7.0

hive-1.1.0-cdh5.7.0

hue-3.9.0-cdh5.7.0

1.下载前置环境

	yum install -y ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gcc-c++ krb5-devel 
	libffi-devel libxml2-devel libxslt-devel make mysql mysql-devel openldap-devel python-devel sqlite-devel
	gmp-devel

2.下载解压hue-3.9.0-cdh5.7.0安装包

	[hadoop@hadoop software]$ tar -zxvf hue-3.9.0-cdh5.7.0.tar.gz -C ../app/    -- 检查解压后的用户和用户组
	[hadoop@hadoop app]$ cd hue
	[hadoop@hadoop hue]$ make apps

出现如下便是成功 (如果1中全部安装成功,这步应该没有什么问题)

	1190 static files copied to '/home/hadoop/app/hue-3.9.0/build/static', 1190 post-processed.
	make[1]: Leaving directory `/home/hadoop/app/hue-3.9.0/apps'
3.配置环境变量
	vim /.bash_profile
	export HUE_HOME=/home/hadoop/app/hue-3.9.0
	export PATH=$HUE_HOME/build/env/bin:$PATH
	. .bash_profile
4.配置$HUE_HOME/desktop/conf/hue.ini文件
	# [desktop] 配置
	  http_host=hadoop     # 如果是集群,修改为主机的IP地址
	  http_port=8888               
	  secret_key=jFE93j;2[290-eiw.KEiwN2s3['d;/.q[eIW^y#e=+Iei*@Mn<qW5o    # 秘钥
	  time_zone=Asia/Shanghai
	  django_debug_mode=false    # 生产环境改成false,开发环境true
	  server_user=hadoop             # 这里用户名密码为首次在hue web页面注册的超级用户
	  server_group=hadoop
	  default_user=hadoop
	  default_hdfs_superuser=hadoop
	
	# [hadoop] 配置
	  fs_defaultfs=hdfs://hadoop:9000
	  webhdfs_url=http://hadoop:50070/webhdfs/v1
	  hadoop_conf_dir=/home/hadoop/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop
	
	  resourcemanager_host=hadoop
	  submit_to=True
	  resourcemanager_api_url=http://hadoop:8088
	  proxy_api_url=http://hadoop:8088
	  history_server_api_url=http://hadoop:19888
	
	# [beeswax] 配置
	  hive_server_host=hadoop
	  hive_server_port=10000
	  hive_conf_dir=/home/hadoop/app/hive-1.1.0-cdh5.7.0/conf
5.修改$HADOOP_HOME/etc/hadoop目录下相关文件
	hdfs-site.xml
	    <property>
	        <name>dfs.webhdfs.enabled</name>
	        <value>true</value>
	    </property>
	     
	core-site.xml
	 <property>
        <name>hadoop.proxyuser.hadoop.hosts</name>
        <value>*</value>
    </property>
    <property>
        <name>hadoop.proxyuser.hadoop.groups</name>
        <value>*</value>
    </property>
	    <property>
	        <name>hadoop.proxyuser.hue.hosts</name>
	        <value>*</value>
	    </property>
	    <property>
	        <name>hadoop.proxyuser.hue.groups</name>
	        <value>*</value>
	    </property>
	    
	httpfs-site.xml
	    <property>
	        <name>httpfs.proxyuser.hue.hosts</name>
	        <value>*</value>
	    </property>
	    <property>
	        <name>httpfs.proxyuser.hue.groups</name>
	        <value>*</value>
	    </property>

此时,便可以启动hue了

	[hadoop@hadoop ~]$ supervisor

然后去对应ip:8888去查看,我这里遇到了权限问题OperationalError: attempt to write a readonly database,查询资料后得知,
/home/hadoop/app/hue/desktop/desktop.db ,用户与用户组都是root用户,修改为hadoop用户,重启supervisor,记得把8888端口号对应的进程杀掉,不然会报错error:[Errno 98] Address already in use。至此ip:8888可以正常打开,浏览hdfs如下。
在这里插入图片描述

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值