学习随笔 pyspark JDBC 操作oracle数据库

# -*- coding:utf-8 -*-
from pyspark import SparkContext, SparkConf
from pyspark.sql import SQLContext
import numpy as np


appName = "jhl_spark_1"  # 你的应用程序名称
master = "local"  # 设置单机
conf = SparkConf().setAppName(appName).setMaster(master)  # 配置SparkContext
sc = SparkContext(conf=conf)
sqlContext = SQLContext(sc)
url='jdbc:oracle:thin:@127.0.0.1:1521:ORCL'
tablename='V_JSJQZ'
properties={"user": "Xho", "password": "sys"}
df=sqlContext.read.jdbc(url=url,table=tablename,properties=properties)
#df=sqlContext.read.format("jdbc").option("url",url).option("dbtable",tablename).option("user","Xho").option("password","sys").load()
#注册为表,然后在SQL语句中使用
df.registerTempTable("v_jsjqz")
#SQL可以在已注册为表的RDDS上运行
df2=sqlContext.sql("select ZBLX,BS,JS,JG from v_jsjqz t order by ZBLX,BS")
list_data=df2.toPandas()# 转换格式toDataFrame
list_data = list_data.dropna()# 清洗操作,去除有空值的数据
list_data = np.array(list_data).tolist()#tolist
RDDv1=sc.parallelize(list_data)#并行化数据,转化为RDD
RDDv2=RDDv1.map(lambda x:(x[0]+'^'+x[1],[[float(x[2]),float(x[3])]]))
RDDv3=RDDv2.reduceByKey(lambda a,b:a+b)
sc.stop()

 这里的 pyspark 是spark安装的文件夹里python文件夹下的,需要复制到anoconda的Lib下site-packages中

代码中没有环境变量的配置,不愿意在本机配置环境变量的可以去查查spark在python中环境变量配置

转载于:https://www.cnblogs.com/ToDoNow/p/9542731.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值