python hbase kerberos_在Kerberos环境下Hue与HBase集成

本文档详细介绍了如何在启用了Kerberos的CDH5.15.0集群中,配置HBase的Thrift Server服务并与Hue集成。步骤包括HBase Thrift的安装配置,Hue的HBase相关设置,以及成功访问HBase表的验证。注意hbase.thrift.security.qop配置适用于CDH5.3及以上版本,用户模拟功能适用于CDH5.4及以上版本。
摘要由CSDN通过智能技术生成

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

Fayson的github:

https://github.com/fayson/cdhproject

提示:代码块部分可以左右滑动查看噢

1.文档编写目的

Hue中访问HBase是通过HBase的Thrift Server服务进行访问,在集群启用了Kerberos后,通过Hue访问HBase时不能显示任何表。本篇文章Fayson主要介绍集群在Kerberos环境下Hue与HBase的集成。

内容概述

1.环境准备

2.HBase及Hue配置

3.功能验证

测试环境说明

1.CM和CDH版本为5.15.0

2.集群已启用Kerberos

3.RedHat7.2

2.HBase Thrift安装及配置

1.登录CM进入HBase的实例列表界面

f12cf4bc0c8ae35655c24bad9fe7a5ec.png

2.添加Thrift Server服务

0d980f3a2b09a379d4a4d000f1afd5ce.png

3.修改Thrift Server配置

修改hbase.thrift.security.qop=auth-init|auth-conf|auth三个配置项任意一种

d41860538b90be9c4eb60cd2fe72f1ab.png

启用HBase Thrift代理用户

e9235110682a627012042b3abaa71797.png

启用HBase Thrift Http服务

91f8619d24112a1edaa8c4a99c1fdbb7.png

3.Hue配置HBase Thrift

1.进入Hue服务的配置界面,搜索“HBase”,为Hue配置HBase集成并配置HBase Thrift Server服务

fded14d1fa37bb7e1b4824e913925c6f.png

2.在Hue的hue_safety_valve.ini高级配置项中增加HBase的配置

[hbase]

hbase_conf_dir={{HBASE_CONF_DIR}}

或者

[hbase]

hbase_conf_dir=/etc/hbase/conf

14f8b53c0da03aa47f520845c615c6c2.png

完成HBase和Hue的配置后,回到CM主页根据提示重启相应服务。

e0ca1763d0aa7007066d7fb6bdfcd64a.png

4.Hue访问HBase测试

1.使用fayson用户登录Hue

c7db640fefa40adf59602921ba134ba9.png

2.进入HBase功能页面可以看到列出的所有HBase表

300739f1dbf897c473d030f862388ef6.png

3.访问navigator_audits表

7b1cc26887a977890221a9967231a5a2.png

5.总结

1.如上操作配置方式适用于CDH5.0和更高版本

2.hbase.thrift.security.qop配置仅适用于CDH5.3和更高版本

3.HBase的用户模拟功能仅适用于CDH5.4和更高版本

4.在启用HBase的用户模拟功能后,需要确保core-site.xml配置文件中包含hbase用户和组的配置,否则需要在HDFS的高级配置项中添加

提示:代码块部分可以左右滑动查看噢

为天地立心,为生民立命,为往圣继绝学,为万世开太平。

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。

原创文章,欢迎转载,转载请注明:转载自微信公众号Hadoop实操

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: CDH6.3中Hue的配置可以通过以下步骤完成: 1. 安装CDH6.3集群,并在其中一台机器上安装Hue。 2. 配置Hue的数据库连接,可以选择MySQL作为Hue的元数据存储和用户认证数据库。在Hue的配置文件中,设置以下参数: ``` [desktop] ... # Database settings ... engine=django.db.backends.mysql host=<MySQL服务器IP地址> port=<MySQL服务器端口> user=<MySQL用户名> password=<MySQL用户密码> name=<MySQL数据库名> ``` 3. 配置Hive的连接,可以通过以下步骤完成: (1)在Hue的配置文件中,设置以下参数: ``` [hadoop] ... # Hive settings ... hive_server_host=<Hive服务器IP地址> hive_server_port=<Hive服务器端口> ``` (2)在Hive的配置文件中,设置以下参数: ``` <property> <name>hive.server2.enable.doAs</name> <value>true</value> </property> <property> <name>hive.server2.authentication</name> <value>KERBEROS</value> </property> <property> <name>hive.server2.authentication.kerberos.principal</name> <value>hive/_HOST@<Kerberos域名></value> </property> <property> <name>hive.server2.authentication.kerberos.keytab</name> <value>/etc/security/keytabs/hive.service.keytab</value> </property> ``` 4. 配置HBase的连接,可以通过以下步骤完成: (1)在Hue的配置文件中,设置以下参数: ``` [hbase] ... # HBase settings ... hbase_host=<HBase服务器IP地址> hbase_port=<HBase服务器端口> ``` (2)在HBase的配置文件中,设置以下参数: ``` <property> <name>hbase.security.authentication</name> <value>kerberos</value> </property> <property> <name>hbase.security.authorization</name> <value>true</value> </property> <property> <name>hbase.rpc.engine</name> <value>org.apache.hadoop.hbase.ipc.SecureRpcEngine</value> </property> <property> <name>hbase.master.kerberos.principal</name> <value>hbase/_HOST@<Kerberos域名></value> </property> <property> <name>hbase.regionserver.kerberos.principal</name> <value>hbase/_HOST@<Kerberos域名></value> </property> <property> <name>hbase.rpc.protection</name> <value>authentication</value> </property> ``` 5. 配置Spark的连接,可以通过以下步骤完成: (1)在Hue的配置文件中,设置以下参数: ``` [spark] ... # Spark settings ... spark_host=<Spark服务器IP地址> spark_port=<Spark服务器端口> ``` (2)在Spark的配置文件中,设置以下参数: ``` spark.authenticate=true spark.authenticate.secret=<Spark认证密钥> spark.master=yarn spark.eventLog.enabled=true spark.eventLog.dir=<Spark事件日志目录> ``` 6. 配置SparkSQL的连接,可以通过以下步骤完成: (1)在Hue的配置文件中,设置以下参数: ``` [spark] ... # SparkSQL settings ... spark_sql_host=<SparkSQL服务器IP地址> spark_sql_port=<SparkSQL服务器端口> ``` (2)在SparkSQL的配置文件中,设置以下参数: ``` spark.authenticate=true spark.authenticate.secret=<SparkSQL认证密钥> spark.sql.catalogImplementation=hive ``` 7. 配置PySpark的连接,可以通过以下步骤完成: (1)在Hue的配置文件中,设置以下参数: ``` [spark] ... # PySpark settings ... pyspark_host=<PySpark服务器IP地址> pyspark_port=<PySpark服务器端口> ``` (2)在PySpark的配置文件中,设置以下参数: ``` spark.authenticate=true spark.authenticate.secret=<PySpark认证密钥> ``` ### 回答2: CDH6.3是一款开源的大数据平台,它拥有众多的开源项目和工具,但是如果不能充分发挥这些工具的功能,即使搭建了CDH6.3也无法完成数据处理和分析任务。因此,在CDH6.3中,我们不仅需要熟悉各个组件的使用,还需要对它们进行配置,以满足我们的具体需求。 Hue是CDH6.3中非常流行的一个web界面,它提供了对各种Hadoop组件的操作,包括MySQL、Hive、HBase、Spark、SparkSQL和Pyspark。下面是它们的配置过程: MySQL配置:在Hue的配置文件中,需要设置数据库连接信息,包括数据库类型、地址、端口、用户名和密码等。配置好后,就可以在Hue操作MySQL数据库。 Hive配置:在Hue中配置Hive相关配置需要设置一个元数据库,可以使用MySQL作为元数据存储库,配置还包括HDFS和YARN等相关配置。完成配置后,用户可以在Hue上运行Hive查询。 HBase配置:在Hue中配置HBase需要配置HueHBase的一些参数,主要是关于HueHBase API的参数,以及Hue主机的HBase客户端配置。完成配置后,用户可以使用HBase浏览器在Hue上访问HBase。 Spark配置:在Hue集成Spark最直接的方法是通过Livy服务来连接Spark,配置需要指定Spark主机地址和端口等参数。配置好后,用户就可以在Hue上运行Spark任务。 SparkSQL配置:在Hue中配置SparkSQL需要在LIVY服务中设置SparkSQL的执行环境参数。由于SparkSQL依赖于Spark集群,因此需要在Livy服务中指定Spark集群的信息。同时,需要为Hive配置一个metastore用于SparkSQL的元数据存储。 Pyspark配置:Hue集成Pyspark与Spark配置类似,通过Livy服务连接Pyspark,需要指定Python路径和Pyspark程序路径等参数。 总之,通过Hue配置CDH6.3中的组件,可以使用户在Web界面上方便的操作和管理各个组件,提高数据处理和分析效率。 ### 回答3: CDH是一个基于Apache Hadoop生态系统的分布式数据处理平台。Hue是CDH平台上一个重要的Web UI的组件,提供了图形界面来管理大数据。在CDH6.3中,Hue的配置涉及集成多个组件,包括MySQL、Hive、HBase、Spark、Spark SQL和PySpark。 集成MySQL: 1. 在Hue配置文件中,开启MySQL的支持,启用以下参数:[[database]],type=mysql,host=localhost,port=3306,user=hueuser,password=huepassword,name=huedb。 2. 在MySQL中创建一个Hue用户并授权,使用以下命令:CREATE USER 'hueuser'@'<Hue主机>' IDENTIFIED BY 'password'; GRANT ALL PRIVILEGES ON huedb.* TO 'hueuser'@'<Hue主机>'; 3. 在Hue服务器上安装MySQL JDK依赖项和MySQL客户端依赖项,运行以下命令: sudo yum install mysql-connector-java --skip-broken sudo yum install mysql --skip-broken 4. 重启Hue服务。 集成Hive: 1. 在Hue配置文件中,开启Hive的支持,启用以下参数:[[beeswax]],hive_server_host=localhost,hive_server_port=10000。 2. 配置Hive JDBC驱动程序,将hive-jdbc.jar拷贝到Hue服务器上,并在 /etc/hue/conf/hue.ini 中配置以下: [jdbc] # The JDBC driver to use to connect to Hive hive_jdbc_jar=/usr/hdp/current/hive-client/lib/hive-jdbc.jar 3. 重启Hue服务。 集成HBase: 1. 在Hue配置文件中,开启HBase的支持,启用以下参数:[[hbase]],hbase_clusters=CDHCluster,hbase_clusters_live=CDHCluster。 2. 将 HBase 配置文件复制到 Hue 安装目录 /etc/hue/conf.dist 的 /etc/hue/conf/ 目录中。 3. 使用以下命令指定HBASE_HOME环境变量: export HBASE_HOME=/usr/lib/hbase 4. 启动Hue服务。 集成Spark 和 Spark SQL: 1. 在Hue配置文件中,开启Spark和Spark SQL的支持,启用以下参数: [[spark]] livy_server_host=localhost livy_server_port=8998 [[sparksql]] pyspark_submit_args=--master yarn-cluster --deploy-mode client 2. 安装Livy服务器,Livy是Spark的REST接口,通过Livy可以远程提交Spark作业。Livy服务器和Spark集群必须安装在同一台服务器上。 3. 在/etc/hue/conf/hue.ini文件中配置Livy服务器信息: [livy] server_url=http://localhost:8998 4. 重启Hue服务。 集成PySpark: 1. 在Hue配置文件中,开启PySpark的支持,启用以下参数:[[spark]],enable_pyspark=true,pyspark_submit_args=--master yarn-cluster --deploy-mode client。 2. 修改spark-env.sh文件,打开该文件并配置以下参数: export PYTHONPATH=/usr/lib/spark/python/:/usr/lib/spark/python/lib/py4j-0.9-src.zip:/usr/lib/hue/tools/lib/python 3. 重启Hue服务。 通过以上步骤,CDH6.3中的Hue已经成功集成了MySQL、Hive、HBase、Spark、Spark SQL和PySpark,用户可以使用Hue提供的Web UI来管理和查询大数据集群。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值