python获取spark连接方式_Python Apache spark连接到redshi

我在这里通过这个网址将pyspark连接到redshift:我创建了一个文件夹,下载了RedshiftJDBC42-1.2.12.1017.jar并创建了Python文件样品.py用下面的代码from pyspark.conf import SparkConffrom pyspark.sql import SparkSessionaws_access_key = "xxxx"aws_secret_...
摘要由CSDN通过智能技术生成

我在这里通过这个网址将pyspark连接到redshift:

我创建了一个文件夹,下载了

RedshiftJDBC42-1.2.12.1017.jar

并创建了Python文件样品.py用下面的代码from pyspark.conf import SparkConf

from pyspark.sql import SparkSession

aws_access_key = "xxxx"

aws_secret_key = "xxxxyyyy"

bucket = "redshiftbucketadrian"

spark = SparkSession.builder.master("yarn").appName("Connect to redshift").enableHiveSupport().getOrCreate()

sc = spark.sparkContext

sql_context = HiveContext(sc)

sc._jsc.hadoopConfiguration().set("fs.s3n.awsAccessKeyId", aws_access_key)

sc._jsc.hadoopConfiguration().set("fs.s3n.awsSecretAccessKey", aws_secret_key)

df = sql_context.read\

.format("com.databricks.spark.redshift")\

.option("url", "jdbc:redshift://xxxxx")\

.option("dbtable&

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值