PySpark整合Jupyter Notebook

本文介绍如何在Jupyter Notebook中整合PySpark。启动pyspark后,通过显示的端口号在浏览器中访问。若需引入外部jar包,如Oracle JDBC,可通过设置系统变量实现。遇到警告时,调整spark.executor.extraClassPath或spark.driver.extraClassPath。
摘要由CSDN通过智能技术生成

PySpark整合Jupyter Notebook

主要是两个变量

export PYSPARK_DRIVER_PYTHON=jupyter
export PYSPARK_DRIVER_PYTHON_OPTS=notebook

然后直接启动pyspark

$SPARK_HOME\bin\pyspark

窗口中的消息输出会给出端口号

[I 14:59:08.242 NotebookApp] 0 active kernels 
[I 14:59:08.242 NotebookApp] The Jupyter Notebook is running at: http://localhost:8888/
[I 14:59:08.243 NotebookApp] Use Control-C to stop this server and shut down all kernels (twice to skip confirmation).
[I 15:01:35.974 NotebookApp] Saving file at ...

然后从自己的机器上直接用浏览器打开使用就行了
如果要用到外部的jar包,可以加一下系统变量,比如这个就是一个oracle jdbc的例子

export SPARK_CLASSPATH=$ORACLE_HOME/ojdbc8.jar

如果看到以下警告,则改一下spark.executor.extraClassPath或者spark.driver.extraClassPath

WARN SparkConf: SPARK_CLASSPATH was detected (set to '/home/ojdbc8.jar'). This is deprecated in Spark 1.0+.
Please instead use:
./spark-submit 
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值