pycharm连接linux上的编译器,PyCharm 远程连接linux中Python 运行pyspark(示例代码)

PySpark in PyCharm on a remote server

1、确保remote端Python、spark安装正确

2、remote端安装、设置

vi /etc/profile

添加一行:PYTHONPATH=$SPARK_HOME/python/:$SPARK_HOME/python/lib/py4j-0.8.2.1-src.zip

source /etc/profile

# 安装pip 和 py4j

下载pip-7.1.2.tar

tar -xvf pip-7.1.2.tar

cd pip-7.1.2

python setup.py install

pip install py4j

# 避免ssh时tty检测

cd /etc

chmod 640 sudoers

vi /etc/sudoers

#Default requiretty

3、本地Pycharm设置

File > Settings > Project Interpreter:

20180110210914383274.jpg

Project Interpreter > Add remote(前提:remote端python安装成功):

20180110210914390110.jpg

注意,这里的Python路径为python interpreter path,如果python安装在其它路径,要把路径改过来

Run > Edit Configuration (前提:虚拟机中共享本地目录成功):

20180110210914398900.jpg

此处我配置映射是在Tools中进行的

Tools > Dployment > Configuration

20180110210914401829.jpg

20180110210914411595.jpg

20180110210914425268.jpg

4、测试

importosimportsys

os.environ[‘SPARK_HOME‘] = ‘/root/spark-1.4.0-bin-hadoop2.6‘sys.path.append("/root/spark-1.4.0-bin-hadoop2.6/python")try:from pyspark importSparkContextfrom pyspark importSparkConfprint ("Successfully imported Spark Modules")exceptImportError as e:print ("Can not import Spark Modules", e)

sys.exit(1)

Result:ssh://[email protected]:22/usr/bin/python -u /home/hadoop/TestFile/pysparkProgram/Mainprogram.py

Successfully imported Spark Modules

Process finished with exit code 0

或者:

importsys

sys.path.append("/root/programs/spark-1.4.0-bin-hadoop2.6/python")try:importnumpy as npimportscipy.sparse as spsfrom pyspark.mllib.linalg importVectors

dv1= np.array([1.0, 0.0, 3.0])

dv2= [1.0, 0.0, 3.0]

sv1= Vectors.sparse(3, [0, 2], [1.0, 3.0])

sv2= sps.csc_matrix((np.array([1.0, 3.0]), np.array([0, 2]), np.array([0, 2])), shape=(3, 1))print(sv2)exceptImportError as e:print("Can not import Spark Modules", e)

sys.exit(1)

Resultssh://[email protected]:22/usr/bin/python -u /home/hadoop/TestFile/pysparkProgram/Mainprogram.py

(0, 0)1.0(2, 0) 3.0Process finished with exit code 0

参考:

https://edumine.wordpress.com/2015/08/14/pyspark-in-pycharm/http://renien.github.io/blog/accessing-pyspark-pycharm/http://www.tuicool.com/articles/MJnYJb

参照:

http://blog.csdn.net/u011196209/article/details/9934721

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值