spark采坑集锦之sparksql操作hive

spark sql如果想操作hive,用sql命令在hive中操作表

一、需要在spark安装目录的conf文件夹准备好以下三个文件
hadoop安装目录中conf文件夹下的配置文件
core-site.xml
hdfs-site.xml

hive安装目录中conf文件夹下的配置文件
hive-site.xml
里面的mysql用户名 密码 和主机名一定要对啊
还有mysql的版本要和这里的驱动一致,因为mysql8.0之后的驱动变了

<configuration>
        <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>root</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>123456</value>
         </property>
        <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:mysql://bigdata100:3306/metastore?createDatabaseIfNotExist=true</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.jdbc.Driver</value>
        </property>
</configuration>

二、启动好各个需要的组件
hadoop
zookeeper
spark
mysql

三、启动spark-shell
bin/spark-shell --master spark://(主机名):7077 --jars /root/mysql-connector-java-5.1.39.jar --driver-class-path /root/mysql-connector-java-5.1.39.jar

这里的mysql-connector-java-5.1.39.jar也要和mysql的版本一致,如果是mysql8.0需要用mysql-connector-java-8.0.11.jar

如果报错:
Access denied for user ‘root’@‘localhost’ (using password:YES))
在mysql窗口输入:

mysql> grant all privileges on *.* to 'root'@'%'  identified by '123456' with grant option;
	mysql> flush privileges;

*.* :数据库.表 代表任意数据库表
‘root’@’%’ :给root账户设置密码为123456并且host为任意主机均可访问
flush privileges :刷新权限,让设置生效

按照以上的步骤应该就可以成功让spark操作hive了

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值