目录
1.创建本地 Yum 仓库
导读
创建本地
Yum
仓库的目的是因为从远端的Yum
仓库下载东西的速度实在是太渣, 然而CDH
的所有组件几乎都要从Yum
安装, 所以搭建一个本地仓库会加快下载速度
下载
CDH
的所有安装包生成
CDH
的Yum
仓库配置服务器, 在局域网共享仓库
1.1
下载 CDH
的安装包
创建本地 Yum
仓库的原理是将 CDH
的安装包下载下来, 提供 Http
服务给局域网其它主机(或本机), 让其它主机的 Yum
能够通过 Http
服务下载 CDH
的安装包, 所以需要先下载对应的 CDH
安装包
(需要注意的是, 这一步可以一点都不做, 因为已经为大家提供了对应的安装包, 在 DMP
的目录中, 就能找到 cloudera-cdh5
这个目录, 上传到服务器即可)
-
下载
CDH
的安装包需要使用CDH
的一个工具, 要安装CDH
的这个工具就要先导入CDH
的Yum
源wget https://archive.cloudera.com/cdh5/redhat/6/x86_64/cdh/cloudera-cdh5.repo mv cloudera-cdh5.repo /etc/yum.repos.d/
-
安装
CDH
安装包同步工具yum install -y yum-utils createrepo
-
同步
CDH
的安装包reposync -r cloudera-cdh5
1.2
创建本地 Yum
仓库服务器
创建本地 Yum
仓库的原理是将 CDH
的安装包下载下来, 提供 Http
服务给局域网其它主机(或本机), 让其它主机的 Yum
能够通过 Http
服务下载 CDH
的安装包, 所以需要提供 Http
服务, 让本机或者其它节点可以通过 Http
下载文件, Yum 本质也就是帮助我们从 Yum
的软件仓库下载软件
-
安装
Http
服务器软件yum install -y httpd service httpd start
-
创建
Yum
仓库的Http
目录mkdir -p /var/www/html/cdh/5 cp -r cloudera-cdh5/RPMS /var/www/html/cdh/5/ cd /var/www/html/cdh/5 createrepo .
-
在三台主机上配置
Yum
源最后一步便是向
Yum
增加一个新的源, 指向我们在cdh01
上创建的Yum
仓库, 但是在这个环节的第一步中, 已经下载了一个Yum
的源, 只需要修改这个源的文件, 把URL
替换为cdh01
的地址即可所以在
cdh01
上修改文件/etc/yum.repos.d/cloudera-cdh5.repo
为baseurl=http://cdh01/cdh/5/
在
cdh02
和cdh03
上下载这个文件wget https://archive.cloudera.com/cdh5/redhat/7/x86_64/cdh/cloudera-cdh5.repo mv cloudera-cdh5.repo /etc/yum.repos.d/
然后在 cdh02 和 cdh03 上修改文件
/etc/yum.repos.d/cloudera-cdh5.repo
baseurl=http://cdh01/cdh/5/
2. 安装 Zookeeper
主机名 | 是否有 Zookeeper |
---|---|
| 有 |
| 有 |
| 有 |
Step 1
: 安装 Zookeeper
-
和以往不同,
CDH
版本的Zookeeper
是经过定制的, 所以可以直接通过Yum
来安装, 使用刚才所搭建的Yum
仓库, 在所有节点上执行如下命令yum install -y zookeeper zookeeper-server
-
CDH
版本的所有工具都会遵循Linux
的习惯放置Log
和Data
, 所以需要先创建Zookeeper
的数据目录, 并且所有者指定给Zookeeper
所使用的用户, 如下命令在所有节点执行mkdir -p /var/lib/zookeeper chown -R zookeeper /var/lib/zookeeper/
Step 2
: 配置 Zookeeper
-
在使用
Apache
版本的Zookeeper
时, 我们需要自己创建Myid
文件, 现在使用CDH
版本的Zookeeper
已经为我们提供了对应的Shell
程序, 在所有节点执行如下命令, 注意myid
参数, 在不同节点要修改myid
service zookeeper-server init --myid=1
-
Zookeeper
想要组成集群的话, 必须要修改配置文件, 配置整个集群的服务器地址,CDH
版本的Zookeeper
默认配置文件在/etc/zookeeper/conf/zoo.cfg
, 修改这个文件增加服务器地址, 在所有节点上修改Zookeeper
的配置文件增加如下server.1=cdh01:2888:3888 server.2=cdh02:2888:3888 server.3=cdh03:2888:3888
Step 3
: 在所有节点启动 Zookeeper
并检查
-
启动
CDH
版本的Zookeeper
也是通过Service
的方式service zookeeper-server start
-
因为 Zookeeper 的搭建比较复杂, 启动完成后可以通过 CDH 提供的命令, 或者使用 Zookeeper 的四字命令来查看是否状态正常
zookeeper-server status
CDH
版本的组件有一个特点, 默认情况下配置文件在 /etc
对应目录, 日志在 /var/log
对应目录, 数据在 /var/lib
对应目录, 例如说 Zookeeper
, 配置文件放在 /etc/zookeeper
中, 日志在 /var/log/zookeeper
中, 其它的组件也遵循这样的规律
3.安装 Hadoop
导读
安装软件包
配置 HDFS
配置 Yarn 和 MapReduce
主机名 | 职责 |
---|---|
|
|
|
|
|
|
3.1
安装 Hadoop
软件包
CDH
版本的 Hadoop
安装主要思路如下
-
下载软件包
-
配置各个组件
-
启动各个组件
所以第一步, 应该先安装 Hadoop
的软件包, 只有软件包已经下载, 才能进行相应组件的配置, 根据集群规划进行安装
根据集群规划, cdh01 中应该如下安装软件包
yum -y install hadoop hadoop-yarn-resourcemanager hadoop-yarn-nodemanager hadoop-hdfs-secondarynamenode hadoop-hdfs-namenode hadoop-hdfs-datanode hadoop-mapreduce hadoop-mapreduce-historyserver hadoop-client
根据集群规划, cdh02 和 cdh03 中应该如下安装软件包
yum -y install hadoop hadoop-yarn-nodemanager hadoop-hdfs-datanode hadoop-mapreduce hadoop-client
3.2 配置 HDFS
-
配置文件的思路
在
CDH
版本的组件中, 配置文件是可以动态变更的本质上,
CDH
各组件的配置文件几乎都分布在/etc
目录中, 例如Hadoop
的配置文件就在/etc/hadoop/conf
中, 这个conf
目录是Hadoop
当前所使用的配置文件目录, 但是这个目录其实是一个软链接, 当希望更改配置的时候, 只需要在/etc/hadoop
中创建一个新的目录, 然后将conf
指向这个新目录即可但是因为各个组件的
conf
目录对应了多个目录, 还需要修改其指向, 管理起来很麻烦, 所以CDH
使用了Linux
一个非常厉害的功能, 可以配置一个目录可以指向的多个目录, 同时可以根据优先级确定某个目录指向谁, 这个工具叫做alternatives
, 有如下几个常见操作-
alternatives --install
讲一个新目录关联进来, 并指定其 ID 和优先级 -
alternatives --set
设置其指向哪个目录 -
alternatives --display
展示其指向哪个目录
-
-
在所有节点中复制原始配置文件并生成新的配置目录, 让
Hadoop
使用使用新的配置目录这样做的目的是尽可能的保留原始配置文件, 以便日后恢复, 所以在所有节点中执行如下操作
-
创建新的配置目录
cp -r /etc/hadoop/conf.empty /etc/hadoop/conf.itcast
-
链接过去, 让
Hadoop
读取新的目录# 关联新的目录和 conf alternatives --install /etc/hadoop/conf hadoop-conf /etc/hadoop/conf.itcast 50 # 设置指向 alternatives --set hadoop-conf /etc/hadoop/conf.itcast # 显式当前指向 alternatives --display hadoop-conf
-
-
在所有节点的新配置目录
/etc/hadoop/conf.itcast
中, 修改配置文件-
vi /etc/hadoop/conf.itcast/core-site.xml
<property> <name>fs.defaultFS</name> <value>hdfs://cdh01:8020</value> </property>
-
vi /etc/hadoop/conf.itcast/hdfs-site.xml
<property> <name>dfs.namenode.name.dir</name> <value>file:///var/lib/hadoop-hdfs/cache/hdfs/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///var/lib/hadoop-hdfs/cache/hdfs/dfs/data</value> </property> <property> <name>dfs.permissions.superusergroup</name> <value>hadoop</value> </property> <property> <name>dfs.namenode.http-address</name> <value>cdh01:50070</value> </property> <property> <name>dfs.permissions.enabled</name> <value>false</value> </property>
-
-
在所有节点中, 创建配置文件指定的
HDFS
的NameNode
和DataNode
存放数据的目录, 并处理权限-
如下创建所需要的目录
mkdir -p /var/lib/hadoop-hdfs/cache/hdfs/dfs/name mkdir -p /var/lib/hadoop-hdfs/cache/hdfs/dfs/data
-
因为
CDH
比较特殊, 其严格按照Linux
用户来管理和启动各个服务, 所以HDFS
启动的时候使用的是hdfs
用户组下的用户hdfs
, 需要创建文件后进行权限配置chown -R hdfs:hdfs /var/lib/hadoop-hdfs/cache/hdfs/dfs/name chown -R hdfs:hdfs /var/lib/hadoop-hdfs/cache/hdfs/dfs/data chmod 700 /var/lib/hadoop-hdfs/cache/hdfs/dfs/name chmod 700 /var/lib/hadoop-hdfs/cache/hdfs/dfs/data
-
-
格式化
NameNode
, 当然, 这个命令只能在cdh01
上执行, 只能执行一次sudo -u hdfs hdfs namenode -format
-
启动
HDFS
-
cdh01
上和HDFS
有关的服务有NameNode
,SecondaryNameNode
, 使用如下命令启动这两个组件service hadoop-hdfs-namenode start service hadoop-hdfs-secondarynamenode start
-
在
cdh02
和cdh03
上执行如下命令service hadoop-hdfs-datanode start
-
3.3 配置 Yarn
和 MapReduce
前面已经完成配置目录创建等一系列任务了, 所以在配置 Yarn
的时候, 只需要去配置以下配置文件即可
-
在所有节点上, 配置
Yarn
和MapReduce
修改
Yarn
和MapReduce
配置文件-
vi /etc/hadoop/conf.itcast/mapred-site.xml
<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>cdh01:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>cdh01:19888</value> </property> <property> <name>hadoop.proxyuser.mapred.groups</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.mapred.hosts</name> <value>*</value> </property> <property> <name>yarn.app.mapreduce.am.staging-dir</name> <value>/user</value> </property>
-
vi /etc/hadoop/conf.itcast/yarn-site.xml
<property> <name>yarn.resourcemanager.hostname</name> <value>cdh01</value> </property> <property> <name>yarn.application.classpath</name> <value> $HADOOP_CONF_DIR, $HADOOP_COMMON_HOME/*,$HADOOP_COMMON_HOME/lib/*, $HADOOP_HDFS_HOME/*,$HADOOP_HDFS_HOME/lib/*, $HADOOP_MAPRED_HOME/*,$HADOOP_MAPRED_HOME/lib/*, $HADOOP_YARN_HOME/*,$HADOOP_YARN_HOME/lib/* </value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.local-dirs</name> <value>file:///var/lib/hadoop-yarn/cache/${user.name}/nm-local-dir</value> </property> <property> <name>yarn.nodemanager.log-dirs</name> <value>file:///var/log/hadoop-yarn/containers</value> </property> <property> <name>yarn.log.aggregation-enable</name> <value>true</value> </property> <property> <name>yarn.nodemanager.remote-app-log-dir</name> <value>hdfs:///var/log/hadoop-yarn/apps</value> </property>
-
-
在所有节点上, 创建配置文件指定的存放数据的目录
-
创建
Yarn
所需要的数据目录mkdir -p /var/lib/hadoop-yarn/cache mkdir -p /var/log/hadoop-yarn/containers mkdir -p /var/log/hadoop-yarn/apps
-
赋予
Yarn
用户这些目录的权限chown -R yarn:yarn /var/lib/hadoop-yarn/cache /var/log/hadoop-yarn/containers /var/log/hadoop-yarn/apps
-
-
为
MapReduce
准备HDFS
上的目录, 因为是操作HDFS
, 只需要在一个几点执行即可大致上是需要两种文件夹, 一种用做于缓存, 一种是用户目录
-
为
MapReduce
缓存目录赋权sudo -u hdfs hadoop fs -mkdir /tmp sudo -u hdfs hadoop fs -chmod -R 1777 /tmp sudo -u hdfs hadoop fs -mkdir -p /user/history sudo -u hdfs hadoop fs -chmod -R 1777 /user/history sudo -u hdfs hadoop fs -chown mapred:hadoop /user/history
-
为
MapReduce
创建用户目录sudo -u hdfs hadoop fs -mkdir /user/$USER sudo -u hdfs hadoop fs -chown $USER /user/$USER
-
-
启动
Yarn
-
在
cdh01
上启动ResourceManager
和HistoryServer
service hadoop-yarn-resourcemanager start service hadoop-mapreduce-historyserver start
-
在
cdh02
和cdh03
上启动NodeManager
service hadoop-yarn-nodemanager start
-
4.安装 MySQL
导读
安装
MySQL
有很多方式, 可以直接准备压缩包上传解压安装, 也可以通过Yum
来安装, 从方便和是否主流两个角度来看, 通过Yum
来安装会比较舒服,MySQL
默认是单机的, 所以在一个主机上安装即可, 我们选择在cdh01
上安装, 安装大致就是两个步骤
安装
配置
4.1 安装
因为要从 Yum
安装, 但是默认的 Yum
源是没有 MySQL
的, 需要导入 Oracle
的源, 然后再安装
-
下载
Yum
源配置wget http://repo.mysql.com/mysql-community-release-el6-5.noarch.rpm rpm -ivh mysql-community-release-el6-5.noarch.rpm
-
安装 MySQL
yum install -y mysql-server
4.2 启动和配置
现在 MySQL
的安全等级默认很高, 所以要通过一些特殊的方式来进行密码设置, 在启动 MySQL
以后要单独的进行配置
-
启动
MySQL
service mysqld start
-
通过
MySQL
提供的工具, 设置root
密码mysql_secure_installation
5. 安装 Hive
导读
因为
Hive
需要使用MySQL
作为元数据库, 所以需要在MySQL
为Hive
创建用户, 创建对应的表
安装
Hive
软件包在
MySQL
中增加Hive
用户配置
Hive
初始化
Hive
在MySQL
中的表结构启动
Hive
因为我们并不需要
Hive
的HA
, 所以在单机部署Hive
即可
5.1 安装 Hive
软件包
-
安装
Hive
依然使用CDH
的Yum
仓库
yum install -y hive hive-metastore hive-server2
-
如果想要
Hive
使用MySQL
作为元数据库, 那需要给Hive
一个MySQL
的JDBC
包yum install -y mysql-connector-java ln -s /usr/share/java/mysql-connector-java.jar /usr/lib/hive/lib/mysql-connector-java.jar
5.2 MySQL
中增加 Hive
用户
-
进入
MySQL
mysql -u root -p
-
为
Hive
创建数据库CREATE DATABASE metastore; USE metastore;
-
创建
Hive
用户CREATE USER 'hive'@'%' IDENTIFIED BY 'hive';
-
为
Hive
用户赋权REVOKE ALL PRIVILEGES, GRANT OPTION FROM 'hive'@'%'; GRANT ALL PRIVILEGES ON metastore.* TO 'hive'@'%'; FLUSH PRIVILEGES;
5.3 配置 Hive
在启动 Hive
之前, 要配置 Hive
一些参数, 例如使用 MySQL
作为数据库之类的配置
Hive
的配置文件在 /etc/hive/conf/hive-site.xml
, 修改它为如下内容
<!-- /usr/lib/hive/conf/hive-site.xml -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://cdh01/metastore</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>hive</value>
</property>
<property>
<name>datanucleus.autoCreateSchema</name>
<value>false</value>
</property>
<property>
<name>datanucleus.fixedDatastore</name>
<value>true</value>
</property>
<property>
<name>datanucleus.autoStartMechanism</name>
<value>SchemaTable</value>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://cdh01:9083</value>
</property>
<property>
<name>hive.metastore.schema.verification</name>
<value>true</value>
</property>
<property>
<name>hive.support.concurrency</name>
<description>Enable Hive's Table Lock Manager Service</description>
<value>true</value>
</property>
<property>
<name>hive.support.concurrency</name>
<value>true</value>
</property>
<property>
<name>hive.zookeeper.quorum</name>
<value>cdh01</value>
</property>
5.4 初始化表结构
使用 Hive
之前, MySQL
中还没有任何内容, 所以需要先为 Hive
初始化数据库, 创建必备的表和模式. Hive
提供了方便的工具, 提供 MySQL
的连接信息, 即可帮助我们创建对应的表
/usr/lib/hive/bin/schematool -dbType mysql -initSchema -passWord hive -userName hive -url jdbc:mysql://cdh01/metastore
5.5 启动 Hive
默认版本的 Hive
只提供了一个 Shell
命令, 通过这一个单独的 Shell
命令以指定参数的形式启动服务, 但是 CDH
版本将 Hive
抽取为两个独立服务, 方便通过服务的形式启动 Hive
, hive-metastore
是元数据库, hive-server2
是对外提供连接的服务
service hive-metastore start
service hive-server2 start
通过 beeline
可以连接 Hive
验证是否启动成功, 启动 beeline
后, 通过如下字符串连接 Hive
启动beeline beeline !connect jdbc:hive2://cdh01:10000 username password org.apache.hive.jdbc.HiveDriver
6.安装 Kudu
导读
安装
Kudu
依然使用我们已经配置好的Yum
仓库来进行, 整体步骤非常简单, 但是安装上分为Master
和Tablet server
安装 Master server
安装软件包
配置
启动
安装 Tablet server
安装软件包
配置
启动
节点 | 职责 |
---|---|
|
|
|
|
|
|
6.1 安装 Master server
的软件包
根据集群规划, 尽量让 cdh01
少一些负载, 所以只在 cdh01
上安装 Master server
, 命令如下
yum install -y kudu kudu-master kudu-client0 kudu-client-devel
6.2 配置 Master server
Kudu
的 Master server
没有太多可以配置的项目, 默认的话日志和数据都会写入到 /var
目录下, 只需要修改一下 BlockManager
的方式即可, 在虚拟机上使用 Log
方式可能会带来一些问题, 改为 File
方式
vi /etc/kudu/conf/master.gflagfile 最后一行添加:--block_manager=file
但是有一点需要注意, 一定确保 ntp
服务是开启的, 可以使用 ntpstat
来查看, 因为 Kudu
对时间同步的要求非常高, ntp
必须可以自动同步
# 查看时间是否是同步状态
ntpstat
(如果ntp始终有问题,可以采用重装的方式解决,具体操作见上一篇笔记)
6.3 运行 Master server
-
运行
Master server
service kudu-master start
-
查看
Web ui
确认Master server
已经启动http://cdh01:8050/masters
6.4 安装 Tablet server
的软件包
根据集群规划, 在 cdh02
, cdh03
中安装 Tablet server
, 负责更为繁重的工作
yum install -y kudu kudu-tserver kudu-client0 kudu-client-devel
6.5 配置 Tablet server
Master server
相对来说没什么需要配置的, 也无须知道各个 Tablet server
的位置, 但是对于 Tablet server
来说, 必须配置 Master server
的位置, 因为一般都是从向主注册自己
在 cdh02
, cdh03
修改 /etc/kudu/conf/tserver.gflagfile
为如下内容, 如果有多个 Master server
实例, 用逗号分隔地址即可
--tserver_master_addrs=cdh01:7051
同时 Tablet server
也需要设置 BlockManager
--block_manager=file
6.6 运行 Tablet server
-
启动
service kudu-tserver start
-
通过
Web ui
查看是否已经启动成功http://cdh02:8051
7.安装 Impala
导读
Kudu
没有SQL
解析引擎, 因为Cloudera
准备使用Impala
作为Kudu
的SQL
引擎, 所以既然使用Kudu
了,Impala
几乎也是必不可少的, 安装Impala
之前, 先了解以下Impala
中有哪些服务
服务 作用
Catalog
Impala
的元信息仓库, 但是不同的是这个Catalog
强依赖Hive
的MetaStore
, 会从Hive
处获取元信息
StateStore
Impala
的协调节点, 负责异常恢复
ImpalaServer
Impala
是MPP
架构, 这是Impala
处理数据的组件, 会读取HDFS
, 所以一般和DataNode
部署在一起, 提升性能, 每个DataNode
配一个ImpalaServer
所以,
cdh01
上应该有Catalog
和StateStore
, 而不应该有ImpalaServer
, 因为cdh01
中没有DataNode
安装
cdh01
中的软件包安装其它节点中所需的软件包
对所有节点进行配置
启动
节点 | 职责 |
---|---|
|
|
|
|
|
|
7.1 安装软件包
-
安装主节点
cdh01
所需要的软件包yum install -y impala impala-state-store impala-catalog impala-shell
-
安装其它节点所需要的软件包
yum install -y impala impala-server
7.2 针对所有节点进行配置
-
软链接
Impala
所需要的Hadoop
配置文件, 和Hive
的配置文件Impala
需要访问Hive
的MetaStore
, 所以需要hive-site.xml
来读取其位置Impala
需要访问HDFS
, 所以需要读取hdfs-site.xml
来获取访问信息, 同时也需要读取core-site.xml
获取一些信息ln -s /etc/hadoop/conf/core-site.xml /etc/impala/conf/core-site.xml ln -s /etc/hadoop/conf/hdfs-site.xml /etc/impala/conf/hdfs-site.xml ln -s /etc/hive/conf/hive-site.xml /etc/impala/conf/hive-site.xml
-
配置
Impala
的主服务位置, 以供ImpalaServer(Impalad)
访问, 修改Impala
的默认配置文件/etc/default/impala
,/etc/default
往往放置CDH
版本中各组件的环境变量类的配置文件IMPALA_CATALOG_SERVICE_HOST=cdh01 IMPALA_STATE_STORE_HOST=cdh01
7.3 启动
-
启动 cdh01
service impala-state-store start service impala-catalog start
-
启动其它节点
service impala-server start
-
通过 Web ui 查看是否启动成功
http://cdh01:25000
8.安装 Hue
导读
Hue
其实就是一个可视化平台, 主要用于浏览HDFS
的文件, 编写和执行Hive
的SQL
, 以及Impala
的SQL
, 查看数据库中数据等, 而且Hue
一般就作为CDH
数据平台的入口, 所以装了CDH
而不装Hue
会觉得少了点什么, 面试的时候偶尔也会问Hue
的使用, 所以我们简单安装, 简单使用Hue
让大家了解以下这个可视化工具
Hue
组件安装配置
Hue
启动
Hue
Hue
只在cdh01
上安装即可
8.1 Hue
组件安装
使用 Yum
即可简单安装
yum -y install hue
8.2 配置 Hue
Hue
的配置就会稍微优点复杂, 因为 Hue
要整合其它的一些工具, 例如访问 HDFS
, 所以配置要从两方面说, 一是 HDFS
要允许 Hue
访问, 二是配置给 Hue
如何访问 HDFS
(以及如何访问其它程序)
-
配置
HDFS
, 允许Hue
的访问修改
hdfs-site.xml
增加如下内容, 以便让Hue
用户可以访问HDFS
中的文件<property> <name>hadoop.proxyuser.hue.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hue.groups</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.httpfs.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.httpfs.groups</name> <value>*</value> </property>
修改
httpfs-site.xml
文件, 增加如下内容, 以便让Hue
可以通过HttpFS
访问<configuration> <!-- Hue HttpFS proxy user setting --> <property> <name>httpfs.proxyuser.hue.hosts</name> <value>*</value> </property> <property> <name>httpfs.proxyuser.hue.groups</name> <value>*</value> </property> </configuration>
-
配置
Hue
, 告诉Hue
如何访问其它组件和工具配置
Hue
所占用的Web
端口, 在/etc/hue/conf/hue.ini
中搜索http_port
修改为如下http_host=cdh01 http_port=8888
配置
Impala
的访问方式, 在/etc/hue/conf/hue.ini
中搜索server_host
修改为如下server_host=cdh01
配置
Hive
的访问方式, 在/etc/hue/conf/hue.ini
中搜索hive_server_host
修改为如下hive_server_host=cdh01
8.3 启动 Hue
使用如下命令即可启动
service hue start
9.开机要启动的服务
服务 | 命令 |
---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|