python取出hive_python环境下使用pyspark读取hive表

python环境 导入pyspark.sql

1.linux系统下,spark读取hive表

配置文件:

先将hive-site.xml放入linux spark内的conf内 //hive和linux下的spark连接

将jar包 mysql-connector-java.jar放入linux spark内的jars

如图:

84ced1e064fbf36c42e04116877353f1.png

2.在windows系统内,配置spark

配置文件:

将linux内的spark/conf文件替换掉windows下的conf文件,hive-site.xml内的ip根据自己实际情况改动

将mysql-connector-java.jar拷入windows 下spark/jars内

3.PyChrome下测试

方式一:配置环境变量 自动读取

spark = SparkSession.builder.master("local[*]")\

.appName("test").enableHiveSupport().getOrCreate()

read_df=spark.sql("select * from dm_events.dm_usereventfinal limit 1")

read_df.show()

方式二:不需配置环境变量

spark = SparkSession.builder.master("spark://192.168.142.197:7077") \

.config("hive.metastore.uris","thrift://192.168.142.197:9083")\

.appName("test").enableHiveSupport().getOrCreate()

read_df = spark.sql("select * from dm_events.dm_usereventfinal limit 1")

read_df.show()

注:也可以尝试直接DOS内尝试

>>pyspark

>>spark.sql("sql_sentence").show()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值