SparkSQL整合Hive与启动HiveServer2

一、Spark整合Hive:

①SparkSQL兼容Hive的源数据库、兼容Hive的自定义函数、兼容Hive的序列化和反序列化。

②可以用SparkSQL替代Hive或者将Hive的引擎由MapReduce换成SparkSQL。

③启动SparkSQL必须是client模式,不能是cluster模式;

启动SparkSQL时可以指定启动模式,错误示例如下:

bin/spark-sql --deploy-mode cluster --master spark://linux02:7077 --driver-class-path /jars/mysql-connector-java-5.1.49.jar

上面这么些会报错,如下:

Cluster deploy mode is not applicable to Spark SQL shell.

整合步骤如下:

1.安装MySQL并创建一个普通用户,并且授权:

(1)CREATE USER ‘hive’@’%’ IDENTIFIED BY ‘123456’;

注:

①%代表可以在任意ip地址访问,如果需要设置网段,%的位置换成192.168.xxx的样式即可。

②’hive’代表用户名是hive,也可以是任意名称(做到见名知意)

注意:

直接写会报下面的错误:(密码太简单)

	ERROR 1819 (HY000): Your password does not satisfy the current policy requirements

(2)修改Mysql的密码安全级别和长度(生产环境不用修改):

	set global validate_password_policy=LOW;
	set global validate_password_length=6;

(3)指定用户spark对hivedb下的表有操作权限(对其他database没有权限)

	GRANT ALL PRIVILEGES ON hivedb.* TO 'hive'@'%' IDENTIFIED BY '123456' WITH GRANT OPTION;
	FLUSH PRIVILEGES;

2.添加hive-site.xml配置文件

注:配置文件放在spark安装目录下的conf文件夹中。

配置文件如下:

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!--
   Licensed to the Apache Software Foundation (ASF) under one or more
   contributor license agreements.  See the NOTICE file distributed with
   this work for additional informati
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值