spark
文章平均质量分 71
xiaokang06
这个作者很懒,什么都没留下…
展开
-
安装Hadoop及Spark(Ubuntu 16.04)
转自:http://www.cnblogs.com/bovenson/p/5760856.html 安装Hadoop及Spark(Ubuntu 16.04) 安装JDK 下载jdk(以jdk-8u91-linux-x64.tar.gz为例) 新建文件夹 sudo mkdir /usr/lib/jvm 解压下载的jdk文件并移动到新建的文件夹下转载 2017-04-22 13:15:32 · 398 阅读 · 0 评论 -
pycharm配置spark
pycharm 配置spark 在Run->Configuration->Defaults->Python->Environment variables下,配置: PYTHONPATH /home/xxx/software/spark-2.1.0-bin-hadoop2.7/python:/home/xxx/software/spark-2.1.0-bin-hadoop2.7/pyth原创 2017-04-22 13:24:31 · 777 阅读 · 0 评论